Это возможный побочный эффект
Любой ориентированный на цель агент мог бы просто делать вещи, которые достигают его целей, игнорируя побочные эффекты, которые не имеют значения для этих целей.
Если в мои цели входит аккуратное жилое пространство, я могу превратить свой двор в красивый ровный газон или тротуар, стирая при этом сложную экосистему жизни, которая была там раньше, потому что меня это не особо волнует.
Если цели конкретного мощного ИИ состоят в том, чтобы сделать что-либо в крупном масштабе, и каким-то образом не особенно заботиться о текущей сложной экосистеме, то эта экосистема может быть уничтожена в процессе. Это не нужно хотеть или нужно уничтожить нас. Если мы просто не относимся к его целям, то мы сделаны из материалов и занимаем пространство, которое оно может использовать для чего-то другого.
Мы являемся угрозой для большинства целей
Любая целенаправленная агент может хотеть , чтобы убедиться , что они могут выполнять свои задачи. Любой умный агент будет пытаться предвидеть действия других агентов, которые могут помешать им в достижении этих целей, и предпринимать шаги, чтобы в любом случае добиться успеха. Во многих случаях проще устранить этих других агентов, чем гарантировать, что их усилия потерпят неудачу.
Например, мои цели могут включать хранение пакета сахара в загородном доме, чтобы я мог делать блины при посещении, не принося все ингредиенты каждый раз. Однако, если я оставлю это там, это, вероятно, будет съедено крысами зимой. Я могу принять всевозможные меры предосторожности, чтобы сохранить его лучше, но крысы умные и хитрые, и, очевидно, нетривиальный шанс, что они все равно преуспеют в достижении своей цели, поэтому эффективная дополнительная мера предосторожности - это убить крыс, прежде чем они получат шанс пытаться.
Если целью конкретного мощного ИИ является X; может прийти к пониманию, что (некоторые?) люди на самом деле могут хотеть не X, а Y вместо этого. Это также может легко сделать вывод, что некоторые из этих людей могут активно делать вещи, которые мешают Х и / или пытаются отключить ИИ. Делать вещи, которые гарантируют, что цель достигнута, - в значительной степени то, что делает агент, ищущий цели; в этом случае, если существование людей не является строго необходимым для цели X, то их устранение становится надежной стратегией снижения риска. В этом нет особой необходимости, и для этого могут потребоваться и другие меры предосторожности, но, как и в моем примере с крысами, люди умны и хитры, и у них явно нетривиальный шанс, что они все же преуспеют в достижении своих целей. цели (чтобы Х не происходил так, как намеревался ИИ), поэтому эффективная дополнительная мера предосторожности могла бы убить их, прежде чем они получат шанс попробовать.