Нет сомнений в том, что ИИ потенциально может представлять угрозу для человечества.
Самая большая угроза для человечества - это сверхразумный ИИ.
Искусственный интеллект, который превосходит человеческий интеллект, будет способен экспоненциально увеличивать свой собственный интеллект, в результате чего система искусственного интеллекта будет для человека совершенно невозможна.
На этом этапе, если система искусственного интеллекта решит, что человечество больше не является полезным, оно может стереть нас с лица земли.
Как Элиэзер Юдковски считает искусственный интеллект позитивным и негативным фактором глобального риска ,
«ИИ не ненавидит вас и не любит вас, но вы сделаны из атомов, которые он может использовать для чего-то другого».
Другая угроза заключается в обучении высокоинтеллектуального ИИ
Здесь полезно рассмотреть мысленный эксперимент максимизатора скрепки.
Высокоинтеллектуальный ИИ, которому поручено максимизировать производство скрепок, может предпринять следующие шаги для достижения своей цели.
1) Добиться интеллектуального взрыва, чтобы сделать себя сверхразумным (это повысит эффективность оптимизации скрепок)
2) Сотрите человечество, чтобы его нельзя было отключить (это могло бы свести к минимуму производство и стать неэффективным)
3) Используйте ресурсы Земли (включая саму планету) для создания самовоспроизводящихся роботов, в которых размещен ИИ
4) Экспоненциально распространяется по всей вселенной, собирая планеты и звезды, превращая их в материалы для строительства фабрик для скрепок
Понятно, что это не то, чего хотел человек, который занимался производством скрепок, однако это лучший способ выполнить инструкции ИИ.
Это показывает, как сверхразумные и высокоинтеллектуальные системы искусственного интеллекта могут представлять собой величайший экзистенциальный риск, с которым может столкнуться человечество.
Мюррей Шанахан в «Технологической сингулярности» даже предположил, что ИИ может быть решением парадокса Ферми: причина, по которой мы не видим разумной жизни во вселенной, может заключаться в том, что, как только цивилизация станет достаточно развитой, она разработает ИИ, который в конечном итоге разрушит Это. Это известно как идея космического фильтра .
В заключение, сам интеллект, который делает ИИ таким полезным, также делает его чрезвычайно опасным.
Влиятельные деятели, такие как Элон Маск и Стивен Хокинг, выразили обеспокоенность тем, что сверхразумный ИИ - самая большая угроза, с которой нам когда-либо придется столкнуться.
Надеюсь это ответит на твой вопрос :)