Системы ИИ сегодня являются очень способными машинами, и в последнее время область Обработки естественных языков и реагирования расширяется благодаря инновациям, а также фундаментальной алгоритмической структуре машин ИИ.
Я спрашиваю, были ли разработаны с учетом этих недавних достижений какие-либо системы искусственного интеллекта, способные (предпочтительно с некоторым успехом) сознательно лгать людям о фактах, которые они знают?
Обратите внимание, что я спрашиваю, выходит за рамки канонических обсуждений теста Тьюринга. Я спрашиваю о машинах, которые могут «понять» факты и затем сформулировать ложь против этого факта, возможно, используя другие факты, чтобы произвести правдоподобное «сокрытие» как часть лжи.
Например, суперкомпьютер CIA похищен шпионами, и они пытаются использовать компьютер для выполнения каких-то задач, но компьютер постоянно говорит, что ему не хватает зависимостей, хотя на самом деле это не так или дает правильные, но неправильные ответы заведомо. Или дает неправильное местоположение человека, зная, что человек часто посещает какое-то место, но в данный момент его там нет. Конечно, не обязательно быть таким изощренным.