Почему этика не более интегрирована в современные системы ИИ?


9

Я аспирант в области компьютерных наук, и в настоящее время я создаю обзор современного состояния приложений, созданных в рамках «Машинной этики» (междисциплинарная область, сочетающая философию и ИИ, которая занимается созданием явных этических программ или агентов). Кажется, что область в основном содержит теоретические аргументы и существует относительно мало реализаций, хотя в этой области много людей с техническим опытом.

Я понимаю, что, поскольку этика вовлечена, нет никакой истинной истины, и поскольку она является частью философии, можно заблудиться в спорах о том, какой тип этики должен быть реализован и как это можно сделать наилучшим образом. Тем не менее, в информатике обычно даже пытаются попробовать простую реализацию, чтобы показать возможности или ограничения вашего подхода.

Каковы возможные причины, по которым так мало делается в явной реализации этики в ИИ и экспериментировании с ней?


2
Примеры подходов можно найти в этом и этом обзорном документе.
Сюзанна

Ответы:


2

Это обязательно ответ высокого уровня и весьма умозрительный, но я размышлял над этим вопросом, и вот мои мысли:

  • Реализация этических алгоритмов требует математической основы для философии, потому что компьютеры являются двигателями различий

После знаменитого провала Рассела и Уайтхеда и теоремы Гёделя о неполноте это может показаться проблематичным.

  • ИИ является весьма прикладной областью, особенно сегодня, в связи с продолжающейся проверкой глубокого обучения, и ни одна компания не хочет заниматься проблемой этики, если они не вынуждены

Таким образом, вы видите это в автомобилях с автоматическим управлением, потому что у инженеров нет иного выбора, кроме как справиться с проблемой. В отличие от этого, я не думаю, что вы увидите много алгоритмических биржевых фирм, где бизнес - это эффективность по Парето , обеспокоенная этическими или социальными последствиями финансовых спекуляций. (Решением «внезапных сбоев», по-видимому, являются правила временного приостановления торговли вместо того, чтобы учитывать социальную ценность высокочастотной алгоритмической торговли.) Более очевидный пример - компании социальных сетей, игнорирующие чрезмерное количество злоупотреблений информацией (дезинформация). и дезинформации), которые публикуются на их сайтах, ссылаясь на невежество, что весьма подозрительно, поскольку деятельность, вызванная злоупотреблением информацией, положительно влияет на их итоги.

  • Прикладные поля, как правило, основаны на прибыли

Основная директива корпораций - возвращать прибыль инвесторам. Корпорации нередко нарушают закон, когда ожидается, что штрафы и штрафы будут меньше, чем прибыль, полученная от незаконной деятельности. (В бизнесе существует понятие этики, но культура в целом, судя по всему, судит людей и компании по тому, сколько денег они зарабатывают, независимо от средств.)

  • Реализация машинной этики исследуется в тех областях, где они необходимы для продажи продукта, но в других местах это все еще в значительной степени гипотетически.

Если суперинтеллект развивается и уничтожает человечество (о чем нас предупреждают очень умные люди с превосходными математическими навыками), я чувствую, что это будет функция природы, где неограниченная эволюция этих алгоритмов обусловлена ​​экономическими факторами, которые сосредоточены на гипер - партизанские автоматы в таких отраслях, как финансовые спекуляции и автономные войны. По сути, погоня за прибылью любой ценой, независимо от воздействия.


Интересный дубль, аспект прибыли! Я не думал об этом, так как я был так сосредоточен на исследовательских причинах, но имеет смысл, что отрасль не испытывает никакого давления для дальнейшего исследования.
Сюзанна

@SuzanneTolmeijer Спасибо. Я изучал, как теория игр соединяется с этикой уже несколько лет. (В основном ранняя философия, где, например, «баланс» назывался «хорошим» - баланс является функцией равновесия и может быть точно, математически определен. Он относится к экономике в том смысле, что стабильность обычно понимается как оптимальная, где нестабильность потенциально катастрофична.) Но я не единственный участник ИИ, который коснулся экономических факторов в этой области и потенциальных опасностей того, что я называю «гиперпартийным ИИ».
DukeZhou

1

Я чувствую, что часть проблемы заключается в том, почему этические реализации технологий ИИ / МЛ имеют очень мало, просто потому, что нет необходимости или правильного применения теоретических основ.

Под этим я подразумеваю, что нет существенных способов применить это понимание к алгоритмам и моделям, которые не могут существенным образом взаимодействовать. У нас есть такая большая теоретическая основа безопасности / этики ИИ, потому что это чрезвычайно важно. Нам нужно придумать безопасные рекомендации по внедрению сильного ИИ до его создания.

Некоторые очень сфокусированные статьи начали сужать вопросы создания этических / безопасных систем ИИ. Смотрите конкретные проблемы в безопасности ИИ


Кажется, существует необходимость в явной этике, по крайней мере, многие исследователи призывают к развитию явной этики (например, Moor 2006 ). С точки зрения правильного применения теоретических основ, вы можете быть правы: реализация подразумевает некоторую интерпретацию в некоторых случаях, что может оказаться затруднительным. Тем не менее, вы соглашаетесь с тем, что безопасные рекомендации для ИИ важны, что означает практические рекомендации относительно того, что мы считаем «правильным» или «этическим» для наших машин. Эти рекомендации подразумевают, как каким-то образом реализовать этику в машинах.
Сюзанна

1

С помощью метода имитации наиболее подходящее поведение может быть интегрировано в искусственный интеллект. Искусственный интеллект может быть изменен, когда меняется этическая позиция. Он используется в идеологических целях или для сбора информации. Непонятно, что такое робот.


1

Мы можем принять модель ошибки в учет. Признание смещения и дисперсии производительности в нейронных сетях может быть первым шагом. И тогда мы можем обсудить, разрешено ли такое исполнение. Насколько нам известно, практика этники требует эмпирических и полевых исследований. мы не можем просто взять обоснования и бумажные эссе, чтобы определить, что дела изученных машин неверны или нет. Это может быть далее разделено на несчастные случаи, ошибки или даже ошибки, созданные разработчиками.


Интересный вопрос, который вы здесь затронули, заключается в том, какие меры можно использовать для тестирования системы и как определить, работает ли система точно? Это то, чего не хватает в этой области, и я чувствую, что это действительно является частью проблемы: как протестировать вашу систему без полной правды? Какие (измерения в) меры имеют смысл в контексте явных этических алгоритмов? Без этого у вас нет возможности сравнивать системы, что ограничивает прогресс в этой области.
Сюзанна

1

Говоря интуитивно, похоже, дело в том, что исследования этики ИИ мало изучены, потому что:

  1. Общество в целом, похоже, с комфортом соглашается с тем, что текущее состояние машинного интеллекта недостаточно сильное, чтобы его можно было считать сознательным или разумным. Таким образом, нам не нужно давать ему этические права (пока).

  2. Внедрение этического поведения в программу требует, чтобы компьютеры были способны интерпретировать «значение», что мы еще не знаем, как это сделать.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.