Стив Омохудро написал статью под названием « Основные приводы ИИ», в которой объясняется, почему мы ожидаем, что ИИ с узкими целями найдет некоторые базовые, общие концепции как полезные для своих узких целей.
Например, ИИ, предназначенный для максимизации доходности на фондовом рынке, но чей дизайн не учитывает важность продолжения выживания, осознал бы, что его продолжительное выживание является ключевым компонентом максимизации доходности на фондовом рынке, и, таким образом, принял меры для поддержания своей работоспособности.
В общем, мы должны скептически относиться к «anthropomorphizing» AI и другой код, но кажется , что там есть основания ожидать этого запредельного «хорошо, люди ведут себя таким образом, поэтому он должен быть , как все разведки ведет себя.»