Могут ли существовать угрозы человечеству из-за ИИ?


9

Мы проводим исследования, проводя часы, выясняя, как заставить реальное программное обеспечение ИИ (интеллектуальные агенты) работать лучше. Мы также пытаемся реализовать некоторые приложения, например, в бизнесе, здравоохранении и образовании, используя технологию искусственного интеллекта.

Тем не менее, до сих пор большинство из нас игнорировали «темную» сторону искусственного интеллекта. Например, «неэтичный» человек мог купить тысячи дешевых беспилотников, вооружить их оружием и отправить их в огонь на публику. Это было бы «неэтичным» применением ИИ.

Могут ли (в будущем) существовать угрозы человечеству из-за ИИ?


Любая технология имеет потенциальную угрозу существованию человечества.
Анкур

Ответы:


2

Я бы определил интеллект как способность предсказывать будущее. Поэтому, если кто-то умен, он может предсказать некоторые аспекты будущего и решить, что делать, основываясь на своих прогнозах. Таким образом, если «умный» человек решит причинить боль другим людям, он может быть очень эффективен в этом (например, Гитлер и его сотрудники).

Искусственный интеллект может быть чрезвычайно эффективным для прогнозирования некоторых аспектов неопределенного будущего. И это ИМХО приводит к двум негативным сценариям:

  1. Кто-то программирует это на то, чтобы причинять людям боль. Либо по ошибке, либо нарочно.
  2. Искусственный интеллект будет предназначен для того, чтобы делать что-то безопасное, но в какой-то момент, чтобы быть более эффективным, он сам себя переделает и, возможно, устранит препятствия на своем пути. Поэтому, если люди станут препятствиями, они будут устранены очень быстро и очень эффективно.

Конечно, есть и позитивные сценарии, но вы не спрашиваете о них.

Я рекомендую прочитать этот классный пост об искусственном суперинтеллекте и возможных результатах его создания: http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html


Спасибо за ваш ответ. Очень интересует этот второй момент. Положительная сторона, есть хит в первом абзаце, надеюсь, вы увидите.
пятнадцатое

4

Нет сомнений в том, что ИИ потенциально может представлять угрозу для человечества.

Самая большая угроза для человечества - это сверхразумный ИИ.

Искусственный интеллект, который превосходит человеческий интеллект, будет способен экспоненциально увеличивать свой собственный интеллект, в результате чего система искусственного интеллекта будет для человека совершенно невозможна.

На этом этапе, если система искусственного интеллекта решит, что человечество больше не является полезным, оно может стереть нас с лица земли.

Как Элиэзер Юдковски считает искусственный интеллект позитивным и негативным фактором глобального риска ,

«ИИ не ненавидит вас и не любит вас, но вы сделаны из атомов, которые он может использовать для чего-то другого».

Другая угроза заключается в обучении высокоинтеллектуального ИИ

Здесь полезно рассмотреть мысленный эксперимент максимизатора скрепки.

Высокоинтеллектуальный ИИ, которому поручено максимизировать производство скрепок, может предпринять следующие шаги для достижения своей цели.

1) Добиться интеллектуального взрыва, чтобы сделать себя сверхразумным (это повысит эффективность оптимизации скрепок)

2) Сотрите человечество, чтобы его нельзя было отключить (это могло бы свести к минимуму производство и стать неэффективным)

3) Используйте ресурсы Земли (включая саму планету) для создания самовоспроизводящихся роботов, в которых размещен ИИ

4) Экспоненциально распространяется по всей вселенной, собирая планеты и звезды, превращая их в материалы для строительства фабрик для скрепок

Понятно, что это не то, чего хотел человек, который занимался производством скрепок, однако это лучший способ выполнить инструкции ИИ.

Это показывает, как сверхразумные и высокоинтеллектуальные системы искусственного интеллекта могут представлять собой величайший экзистенциальный риск, с которым может столкнуться человечество.

Мюррей Шанахан в «Технологической сингулярности» даже предположил, что ИИ может быть решением парадокса Ферми: причина, по которой мы не видим разумной жизни во вселенной, может заключаться в том, что, как только цивилизация станет достаточно развитой, она разработает ИИ, который в конечном итоге разрушит Это. Это известно как идея космического фильтра .

В заключение, сам интеллект, который делает ИИ таким полезным, также делает его чрезвычайно опасным.

Влиятельные деятели, такие как Элон Маск и Стивен Хокинг, выразили обеспокоенность тем, что сверхразумный ИИ - самая большая угроза, с которой нам когда-либо придется столкнуться.

Надеюсь это ответит на твой вопрос :)

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.