Это не просто Хокинг, вы слышите вариации этого припева от многих людей. И учитывая, что они в основном очень умные, хорошо образованные, хорошо информированные люди (например, Элон Маск), это, вероятно, не должно быть уволено из рук вон.
В любом случае, основная идея, по-видимому, такова: если мы создадим «настоящий» искусственный интеллект, в какой-то момент он сможет сам себя улучшить, что улучшит его способность к самосовершенствованию, а это значит, что он может улучшить свою способность самосовершенствоваться даже больше и так далее ... безудержный каскад, ведущий к "сверхчеловеческому интеллекту". То есть, ведя к чему-то более умному, чем мы.
Так что же произойдет, если на этой планете будет существо, которое буквально умнее нас (людей)? Будет ли это угрозой для нас? Ну, конечно, разумно предположить, что это может быть так. ОТО, сейчас у нас нет особой причины думать, что так оно и будет .
Таким образом, кажется, что Хокинг, Маск и т. Д. Просто идут на более осторожную / страшную сторону вещей. Поскольку мы не знаем, будет ли сверхчеловеческий ИИ опасен или нет, и, учитывая, что его можно остановить, если он станет злым (помните, он умнее нас!), Это разумная вещь, которую следует принять во внимание.
Элиэзер Юдковски также написал немало на эту тему, в том числе придумал знаменитый эксперимент «AI Box». Я думаю, что любой, кто интересуется этой темой, должен прочитать некоторые из его материалов.
http://www.yudkowsky.net/singularity/aibox/