Как автомобили с автоматическим управлением могут принимать этические решения о том, кого убивать?


75

Очевидно, что автомобили с автоматическим управлением не идеальны, поэтому представьте, что машина Google (в качестве примера) попала в сложную ситуацию.

Вот несколько примеров неудачных ситуаций, вызванных рядом событий:

  • Автомобиль направляется к толпе из 10 человек, пересекающих дорогу, поэтому он не может остановиться вовремя, но он может не убить 10 человек, ударив об стену (убив пассажиров),
  • Избегая убийства водителя мотоцикла, учитывая, что вероятность выживания для пассажира автомобиля больше,
  • Убив животное на улице в пользу человека,
  • Смена полосы движения, чтобы врезаться в другую машину, чтобы не убить собаку,

И вот несколько дилемм:

  • Распознает ли алгоритм разницу между человеком и животным?
  • Имеет ли значение размер человека или животного?
  • Считает ли он, сколько пассажиров против людей на фронте?
  • Знает ли он, когда на борту находятся дети?
  • Учитывает ли он возраст (например, сначала убивает старшего)?

Как алгоритм решит, что он должен делать с технической точки зрения? Осознает ли это выше (считая вероятность убийств) или нет (убивая людей просто для того, чтобы избежать собственного уничтожения)?

Статьи по Теме:


3
Я не буду ездить на каком-либо запрограммированном транспортном средстве, чтобы не сделать ME пассажира своим главным приоритетом безопасности. Я не одинок в этом мышлении. Если кто-то планирует заставить производителей автономных транспортных средств запрограммировать свое транспортное средство на выполнение каких-либо действий, отличных от приоритетов безопасности своих пассажиров, тогда вся отрасль может с таким же успехом закрыть свои двери. Первые пару раз, когда пассажир умирает из-за какого-то отвратительного этического решения, это будет последний раз, когда подавляющее большинство людей когда-либо приобретет другой автономный автомобиль. Кто хочет ехать в смертельной ловушке?
Данк

Так называемая «проблема с троллейбусами» - это проблема троллей. Есть причина, по которой это называют мысленным экспериментом, а не кейсом: это не то, что когда-либо происходило. Это даже близко к тому, чтобы быть реальным, во многом потому, что машины в принципе не являются тележками. Правильный ответ в любом случае, который можно применить удаленно, - это практически всегда «нажимать на тормоза», и, если есть какое-либо исключение, его можно решить только одним способом: защитить жителей автомобиля любой ценой и даже не задумываться о чем-либо другом. по двум причинам.
Мейсон Уилер

2
Во-первых, @Dunk достаточно хорошо освещен: прагматизм. Если автомобиль может сделать другой выбор, никто в здравом уме не захочет его купить. Во-вторых, если в компьютер автомобиля встроена функция «убить всех», это означает, что злоумышленники уже могут ее найти и злоупотребить ею. Взвесьте реальный шанс того, что кто-то придумает способ спровоцировать это с помощью противоборства с чисто вымышленной идеей законной ситуации с тележкой, и есть только один возможный ответ, который не является морально абсурдным и отвратительным.
Мейсон Уилер

Ответы:


55

Как автомобили с автоматическим управлением могут принимать этические решения о том, кого убивать?

Это не должно Самостоятельные автомобили не являются моральными агентами. Автомобили выходят из строя предсказуемым образом. Лошади терпят неудачу предсказуемым образом.

автомобиль направляется к толпе из 10 человек, пересекающих дорогу, поэтому он не может остановиться вовремя, но он может убить 10 человек, ударив об стену (убив пассажиров),

В этом случае автомобиль должен нажать на тормоза. Если погибнут 10 человек, это просто неудачно. Мы просто не можем доверять всем нашим убеждениям о том, что происходит за пределами машины. Что если эти 10 человек действительно роботы, созданные для того, чтобы выглядеть как люди? Что, если они пытаются убить тебя?

избегая убийства водителя мотоцикла, учитывая, что вероятность выживания для пассажира автомобиля выше,

Опять же, жесткое кодирование такого рода настроений в транспортном средстве открывает водителю транспортного средства возможность подвергаться всевозможным атакам, включая «поддельные» мотоциклисты. Люди едва оснащены для принятия этих решений самостоятельно, если вообще имеют. Когда сомневаешься, просто нажми на тормоза.

убивать животных на улице в пользу человека,

Опять просто нажми на тормоза. Что если это был ребенок? Что если это была бомба?

смена полосы движения, чтобы врезаться в другую машину, чтобы не убить собаку,

Нет. Собака была в неправильном месте в неподходящее время. Другой машины не было. Просто нажмите на тормоза, как можно более безопасно.

Распознает ли алгоритм разницу между человеком и животным?

Есть ли человек? Не всегда. Что если у человека есть пистолет? Что делать, если у животного большие зубы? Нет контекста?

  • Имеет ли значение размер человека или животного?
  • Считает ли он, сколько пассажиров против людей на фронте?
  • Знает ли он, когда на борту находятся дети?
  • Учитывает ли он возраст (например, сначала убивает старшего)?

Люди не могут согласиться с этими вещами. Если вы спросите полицейского, что делать в любой из этих ситуаций, ответ не будет: «Вы должны были повернуть налево, взвесить все соответствующие стороны в вашей голове, оценить соответствующие возрасты между всеми сторонами, а затем повернуть немного вправо, и вы бы спасли на 8% больше жизней ». Нет, полицейский просто скажет: «Вы должны были остановить автомобиль как можно быстрее и безопаснее». Почему? Потому что полицейские знают, что люди обычно не готовы справиться со сценариями скоростных аварий.

Нашей целью для «самостоятельного вождения автомобиля» не должен быть «моральный агент наравне с человеком». Это должен быть агент с реактивной сложностью таракана, которая предсказуемо проваливается.


В большинстве из этих сценариев люди, которые могут быть убиты, больше виноваты в повреждении, чем в автомобиле / пассажире автомобиля - глушение тормозов кажется единственно разумным ответом, поскольку обитатель также не мог избежать аварии. Как вы указали, очень возможно использовать алгоритм, который ведет себя (потенциально) убивая пассажира, а не пешехода, как способ на самом деле убить пассажира, потенциально даже возлагая вину на пассажира, автомобиль или производителя.
Яснее

49

Ответ на многие из этих вопросов зависит от того, как запрограммировано устройство. Компьютер, способный ездить и распознавать дорогу, вероятно, будет способен визуально отличать человека от животного, независимо от того, основаны ли они на контуре, изображении или размере. При достаточно четком распознавании изображений он может рассчитывать количество и тип людей в другом автомобиле. Можно даже использовать имеющиеся данные о вероятности получения травм людьми на разных видах транспортных средств.

В конечном счете, люди не согласны с этическим выбором. Возможно, пользователь / владелец может настроить «этические параметры», например «учитывать только количество жизней» или «более молодые жизни более ценны». Я лично думаю, что это не очень спорно, что машина должна повредить себя прежде, чем вредить человек, но люди не соглашаются о том, как важно для домашних животных жизнь. Если явные настройки kill-this-first делают людей неудобными, ответы могут быть определены из вопросника, предоставленного пользователю.


2
Что-то в самой глубокой части моего разума думает, что редактирование этики было бы плохой идеей. Не совсем уверен, что это кроме того факта, что это машина, а не человек, но я всегда прихожу к выводу, что у нас уже есть этот неписаный договор подписывать этические решения людей, когда мы садимся в машину с кем-то еще.
Ян

6
«этические настройки»? В самом деле? У вас будут люди, устанавливающие это исходя из любых возможных предубеждений «Убить человека, который выглядит наиболее ____» гомосексуалистом? Наименее любимая гонка? Или что, если два водителя в столкновении имеют противоположную этику? Тогда оба будут казнены и есть дополнительные посторонние повреждения? Эти законы должны быть универсальными (по крайней мере, внутри страны), так же, как законы о дорожном движении.
navigator_

3
@navigator_ Я надеюсь, что варианты, предоставляемые производителем, будут в пределах разумного.
Бен Н

1
Причина, как она определяется кем? Это моя точка зрения.
navigator_

3
Я на самом деле думаю, что «этические настройки» - единственный жизнеспособный / справедливый вариант, потому что он имитирует конкретный драйвер как можно ближе. Водитель автомобиля должен быть ответственным за все, что происходит в результате, как если бы он был за рулем. Я не понимаю, как программирование автомобиля, чтобы (например) поставить жизнь водителя раньше всего, отличается от того, что водитель ставит свою жизнь раньше всего.
Пандора

27

Лично я думаю, что это может быть чрезмерной проблемой. Проблемы с вагонетками возникают только тогда, когда ситуация оптимизирована для предотвращения «3-х вариантов».

У машины есть тормоза, не так ли? "Но что, если тормоза не работают?" Ну, тогда машине вообще не разрешено водить. Даже в обычном движении людей-операторов учат, что ваша скорость должна быть ограничена, чтобы вы могли остановиться в зоне, которую вы можете видеть. Подобные решения уменьшат вероятность проблемы с тележкой.

Что касается животных ... если не будет явных попыток разобраться с людьми на дороге, я думаю, что с животными будут обращаться одинаково. Это звучит неправдоподобно - Roadkill случается часто, и человеческое "Roadkill" нежелательно, но животные намного меньше и их труднее увидеть, чем людей, поэтому я думаю, что обнаружение людей будет легче, предотвращая множество несчастных случаев.

В других случаях (ошибки, сбои во время вождения, множественные сбои, накладывающиеся друг на друга), возможно, произойдут несчастные случаи, они будут проанализированы, а транспортные средства будут обновлены, чтобы избежать возникновения подобных ситуаций.


Неправильно говорить, что ИИ будет двигаться так быстро, как только сможет остановить то, что видит, потому что то же самое верно и для людей, защищающих от вождения. Причина в том, что предположения ДОЛЖНЫ быть сделаны. При возвышении на холме предполагается, что большое препятствие находится не в поле зрения [Источник DARPA Grand Challenge]. Эти предположения основаны на правилах дорожного движения, чтобы определить, какие действия являются правильными. Таким образом, если произошла авария, пока вы следовали правилам дорожного движения, вы можете уменьшить свою ответственность. Таким образом, автомобиль должен быть в состоянии принять эти решения, но, возможно, ограниченным образом (защитить потребителя).
Harrichael

13

Это хорошо известная проблема с тележками . Как сказал Бен Н , люди не согласны с правильным выбором действий для сценариев проблем с троллейбусами, но следует отметить, что в случае автомобилей с автоматическим управлением надежность настолько высока, что эти сценарии действительно маловероятны. Таким образом, не так много усилий будет приложено к проблемам, которые вы описываете, по крайней мере в краткосрочной перспективе.


Интересно, насколько хорошо подходит проблема Trolley для этого? Проблема с тележкой, по существу, дискретна и описывает выбор «раз и навсегда», в то время как на практике алгоритм должен делать последовательность выборов с (потенциально весьма небольшими) приращениями времени, возможно, с появлением новой информации. Полезным алгоритмом, скорее всего, будет проблема «непрерывного контроля», встроенная в реальное трехмерное пространство, имеющая дело со скоростями и вероятностями, а не абстрактное, дискретное моральное решение. Если бы ничего другого, это означало бы, что реализация не должна быть определена в таких суровых моральных терминах.
NietzscheanAI

1
@NietzscheanAI Идея проблемы с троллейбусом не в том, какое решение принять, а в том, на чем принимать решения. Если вы учитываете взломы, количество людей, количество животных, которые виноваты, безопасность водителя, большую пользу, наименьшее изменение и т. Д. Вы все еще можете применить вероятности к проблемам с тележкой, т.е. На маршруте А есть 30-процентный шанс убить 10 человек. Проблемы с троллейбусами обычно включают два пути, чтобы вы могли более точно определить, на каких факторах вы основываете этические решения.
Harrichael

12

В реальном мире решения будут приниматься на основании закона, и, как отмечено в Law.SE , закон обычно предпочитает бездействие, а не действие.


Ах, это имеет большой смысл для человеческих жертв. Изменится ли закон по-другому, если машина сможет сбить собаку вместо пешехода?
Бен Н

7

Для автомобиля без водителя, который разработан одной организацией, лучший способ для него принять решение о том, кого убить, путем оценки и минимизации вероятной ответственности.

Не нужно абсолютно правильно идентифицировать всех потенциальных жертв в этом районе, чтобы иметь защиту для своего решения, только для того, чтобы идентифицировать их так же, как и человека.

Ему даже не нужно знать возраст и физическое состояние каждого человека в автомобиле, поскольку он может запросить эту информацию и, если ему отказано, имеет защиту, которую пассажиры решили не предоставлять, и поэтому взял на себя ответственность за ее лишение способность принимать лучшее решение.

У него должна быть только жизнеспособная модель для минимизации подверженности предприятия судебным процессам, которая затем может быть улучшена с течением времени, чтобы сделать ее более прибыльной.


7

«Этот моральный вопрос о том, кого экономить: 99 процентов нашей инженерной работы заключается в том, чтобы вообще не допустить возникновения подобных ситуаций». - Кристоф фон Гюго, Mercedes-Benz

Эта цитата взята из статьи под названием « Mercedes-Benz с самостоятельным вождением будет уделять первостепенное внимание безопасности пассажиров над пешеходами», опубликованной 7 октября 2016 года Майклом Тейлором , от 8 ноября 2016 года.

Вот выдержка, в которой изложено, какое технологическое, практическое решение проблемы.

Старейший в мире производитель автомобилей больше не видит проблему, подобную вопросу 1967 года, известному как проблема тележек, как не подлежащую решению. Вместо того, чтобы связывать себя моральными и этическими узлами в условиях кризиса, Mercedes-Benz просто намерен программировать свои автомобили для самостоятельного вождения, чтобы спасти людей внутри автомобиля. Каждый раз.

По словам Кристофа фон Гюго, менеджера автопроизводителя по системам помощи водителю и активной безопасности, все будущие автономные автомобили Mercedes-Benz уровня 4 и уровня 5 будут иметь приоритет при спасении людей, которых они перевозят.

Там же статья содержит следующий увлекательный абзац.

Исследование, опубликованное в середине года журналом Science, также не прояснилось. Большинство опрошенных в 1928 году считали, что для автономных автомобилей было бы этически лучше жертвовать своими пассажирами, чем врезаться в пешеходов. Тем не менее, большинство также заявили, что не будут покупать автономные автомобили, если они будут отдавать приоритет безопасности пешеходов.


4

Честно говоря, я думаю, что эта проблема (проблема с тележкой) по своей сути слишком сложна, поскольку реальное решение, вероятно, будет довольно простым. Как и человек-водитель, водитель ИИ будет запрограммирован на все этические действия в соответствии с этическими принципами, всегда выбирая курс действий, который не приносит вреда или минимально возможного вреда.

Если водитель ИИ сталкивается с опасностью, такой как неминуемый ущерб имуществу, ИИ, очевидно, будет сильно тормозить и направлять автомобиль в сторону от хрупких предметов, чтобы избежать или минимизировать воздействие. Если опасность поражает пешехода, автомобиль или здание, он решит столкнуться с наименее ценным или дорогим предметом, чтобы нанести ему наименьший вред, - придавая человеку большую ценность, чем зданию или собаке.

Наконец, если водитель ИИ вашего автомобиля выберет ребенка или врезается в стену ... он направит машину и вас в стену. Это то, что сделал бы любой хороший человек. Почему хороший ИИ действует иначе?


1
«ИИ будет сильно тормозить», «он решит столкнуться с ...», если это заявления, не могли бы вы опубликовать некоторые ссылки? Или они основаны на мнении?
Кенорб

1
ОП поставил вопрос: «Какой урон ИИ захочет нанести?». Я думаю, что это неправильная цель. Люди этого не делают. Вместо этого ИИ будет следовать более общей стратегии - избегать урона и наносить как можно меньше урона. Эта цель оптимизации более интуитивна, и с ней труднее спорить, когда возникают проблемы ответственности.
Рэнди

4

Они не должны. Людям следует.

Люди не могут передать ответственность за этические решения в руки компьютеров. Наша ответственность как программистов / экспертов в области ИИ заключается в том, чтобы программировать решения, принимаемые компьютерами. Будут ли еще человеческие жертвы от этого? Конечно, они будут - люди не идеальны, как и программы.

Существует отличные углубленные дискуссии по этой теме здесь . Мне особенно нравится аргумент Янна ЛеКуна относительно параллельной этической дилеммы тестирования потенциально смертельных лекарств на пациентах. Подобно автомобилям с самостоятельным вождением, оба могут быть смертельными, имея хорошие намерения спасти больше людей в долгосрочной перспективе.


4

Как автомобили с автоматическим управлением могут принимать этические решения о том, кого убивать?

Управляя юридической ответственностью и безопасностью потребителей.

Автомобиль, который обеспечивает безопасность потребителя, будет автомобилем, который покупают указанные потребители. Компании не хотят нести ответственность за убийство своих клиентов, а также не хотят продавать продукт, который ставит пользователя в затруднительное положение. Юридическая ответственность и безопасность потребителей - это одна и та же проблема, если рассматривать ее с точки зрения «затрат для потребителя».

И вот несколько дилемм:

  • Распознает ли алгоритм разницу между человеком и животным?

Если нельзя избежать по закону животного / человека (а автомобиль находится в законном праве - если это не так, то с принятием решения ИИ что-то не так), скорее всего, этого не произойдет. Если автомобиль может безопасно избежать препятствия, ИИ может быть разумно замечен, чтобы принять это решение, т.е. сверните на другую полосу на открытом шоссе. Обратите внимание, что особое внимание уделяется ответственности и безопасности водителя.

  • Имеет ли значение размер человека или животного?

Только фактор риска от столкновения с препятствием. Удар бегемота может быть менее желательным, чем удар по канаве. Удар по собаке, вероятно, более желателен, чем разрушение автомобиля клиента.

  • Считает ли он, сколько пассажиров против людей на фронте?

Он считает людей пассажирами, чтобы увидеть, можно ли взять полосу движения автомобилей. Он считает людей впереди как фактор риска в случае столкновения.

  • Знает ли он, когда на борту находятся дети?

Нет.

  • Учитывает ли он возраст (например, сначала убивает старшего)?

Нет. Это просто неправильная абстракция для принятия решения, как это может быть взвешено при выборе правильного курса действий для уменьшения фактора риска? Если в Вариант 1 попал молодой парень с вероятностью 20% значительного повреждения пассажира и без юридической ответственности, а в Варианте 2 попал старик с 21% вероятностью значительного повреждения пассажира и без юридической ответственности, то в чем философ может убедить хотя бы 1 человека в справедливые и справедливые веса, чтобы принять решение?

К счастью, лучшее решение в большинстве случаев состоит в том, чтобы делать перерывы, чтобы снизить скорость (особенно если учесть, что зачастую полезно действовать предсказуемо, чтобы пешеходы и автомобилисты могли реагировать соответствующим образом). В то же время можно улучшить показатели стоимости с точки зрения прогнозирования того, когда водители будут принимать неправильные решения и когда другие действия (например, движение задним ходом) более выгодны, чем выполнение перерывов. На этом этапе не стоит даже начинать собирать информацию для принятия этических решений, предложенных философами. Таким образом, эта проблема чрезмерно раскручена сенсационными журналистами и философами.


3

Я думаю, что в большинстве случаев автомобиль по умолчанию будет уменьшать скорость в качестве основного варианта, а не поворачиваться к определенному выбору. Как уже упоминали другие, иметь настройки, связанные с этикой, это просто плохая идея. Что произойдет, если две машины запрограммированы с противоположными этическими настройками и собираются столкнуться? Автомобили потенциально могут иметь систему для отмены пользовательских настроек и выбора наиболее взаимовыгодного решения. Это действительно интересная концепция, и она обязательно должна быть обсуждена и стандартизирована до широкого внедрения. Внесение этических решений в руки машин иногда затрудняет картину возникающей ответственности.


Да, торможение, чтобы избежать столкновения, было бы лучшим решением. К сожалению, в некоторых случаях (в случаях, о которых идет речь в вопросе) попадание чего-либо неизбежно. Вы, кажется, согласны с некоторыми существующими ответами. Обращаем ваше внимание, что мы хотели бы, чтобы каждый ответ был самостоятельным. Как только вы наберете достаточную репутацию, вы сможете высказать ответы, которые вы считаете полезными. Проблема двух противоположно настроенных автомобилей действительно интересна; было бы здорово, если бы вы отредактировали свой ответ, чтобы расширить это. Спасибо!
Бен Н

Большое спасибо за ваш ответ, я действительно ценю это и буду использовать его на сайте. Я не знал о руководящих принципах для ответов.
imhotraore

2

Я думаю, что не было бы способа отредактировать такие настройки этики в автомобиле. Но, эй, если мобильные телефоны могут быть рутированы, то почему не автомобили? Я предполагаю, что в будущем будут сборки Linux для конкретных моделей, которые позволят вам делать все, что вы захотите.

Что касается того, кто будет принимать такие решения, это будет очень похоже на проблемы конфиденциальности сегодня. Провайдеры ОС (которые попытаются установить минимальное количество раненых, каждый из которых имеет свои собственные методы), страховые компании (которые попытаются заставить вас платить) будут перетягивать канат на себя. больше для ОС, которые, как будет показано статистически, повредят ваш автомобиль легче), и производителей автомобилей (которые захотят, чтобы вы испортили свой автомобиль как можно скорее, поэтому вы купите новый, или сделаете автомобили, которые требуют смешного сумма услуги $$$).

Затем выйдет какой-нибудь разоблачитель и раскроет фрагмент кода, который решит убивать маленьких детей над взрослыми, потому что ему будет труднее отличить их от животных, и он рискует спасти того, кого он наверняка узнает как людей. Производитель ОС получит пощечину от общественности, и будет найден новый консенсус. Информаторы также будут поступать от страховых компаний и производителей автомобилей.

Человечество возьмется за горячую сковороду и сожжет себя, а затем научится заранее надевать перчатки. Мой совет просто позаботится о том, чтобы вы не были этой рукой - держитесь от них подальше пару лет, пока не будут сделаны все ранние ошибки.


2

Единственный разумный выбор - использовать предсказуемое поведение. Так в сценарии людей перед автомобилем: сначала автомобиль нажимает на тормоза, в то же время гудит гудок, и остается на курсе. У людей тогда есть шанс выпрыгнуть с дороги, что приведет к гибели ноль людей. Также при полных тормозах (от 50 км в час до нуля меньше 3 длин автомобиля), ударная ситуация почти не мыслима. Даже если полная остановка не может быть достигнута, серьезный ущерб пешеходам маловероятен.

Другой сценарий просто сумасшедший. Таким образом, расстояние должно быть меньше 3 длин автомобиля, по крайней мере, 1 длина автомобиля необходима для рулевого управления, тогда авария автомобиля является неуправляемой ситуацией, которая может привести к вращению и убить всех 11 человек.

Помимо того, что я не верю, что в реальности есть пример, где есть дилемма; решение в этих маловероятных случаях состоит в том, чтобы соответствовать ожиданиям противной стороны, чтобы позволить другой стороне также смягчить ситуацию.


Можете ли вы попробовать пройти первый ответ, опубликованный Беном. А затем попробуйте отредактировать свой ответ в соответствии с тем, что представляет собой ИИ!
пятнадцатое

ты можешь быть более конкретным? Я прочитал первый ответ Бенса, но не понимаю, как это связано. Можете ли вы объяснить, «что такое AI»?
Лалала

То, что я имел в виду, это быть осведомленным об искусственном интеллекте. Так что ваш ответ может быть отвергнут или ничего не видно, ваше величество!
пятнадцатое

@quintumnia Этот ответ мне кажется хорошим (+1) - просто продолжать, не пытаясь отклониться или принять решение, является правильным выбором.
Бен Н
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.