Предполагая, что артефакты и неестественные элементы не существуют в рассматриваемых средствах массовой информации и что средства массовой информации неразличимы для человеческого глаза, единственный способ сделать это - отследить источник изображений.
Можно провести аналогию с атакой DoS (отказ в обслуживании), когда абсурдное количество запросов отправляется с одного IP-адреса на один сервер, что приводит к его аварийному завершению. Распространенным решением является honeypot, где большое количество запросов от одного IP перенаправляется на ложный сервер, где даже в случае сбоя время безотказной работы не подвергается риску. Некоторое исследование было сделано на этих линиях, где в этой статье говорилось о проверке цифровой подписи изображения или на этой, где они предложили обнаружение подделанного изображения и идентификацию исходной камеры.
После прослеживания до источника, если абсурдное число потенциально поддельных изображений происходит из единственного источника, это должно быть подвергнуто сомнению.
Общий страх возникает, когда мы имеем дело с чем-то по аналогии, например, с атакой DDoS (распределенный отказ в обслуживании), когда каждый поддельный запрос исходит из распределенного источника - Network Security нашла способы справиться с этим, но безопасность и обнаружение мошенничества с точки зрения ИИ просто не установлено.
По сути, для хорошо продуманных искусственных носителей для конкретных злонамеренных целей сегодня довольно трудно поймать - но в настоящее время ведется работа по обеспечению безопасности в ИИ. Если вы планируете использовать искусственные носители в злонамеренных целях, я бы сказал, что сейчас самое подходящее время.
Эта безопасность была предметом озабоченности немного сейчас. Статья написана ученым данные цитаты
Deepfakes уже использовались, чтобы попытаться запугивать и оскорблять женщин через поддельные порно видео. Этот термин на самом деле происходит от имени пользователя Reddit, который создавал эти видео, создавая генеративные состязательные сети (GAN) с использованием TensorFlow. Теперь представители разведки говорят о возможности использования Владимиром Путиным фальшивых видеороликов для влияния на президентские выборы 2020 года. Проводятся дополнительные исследования глубинных подделок как угрозы демократии и национальной безопасности, а также способов их обнаружения.
Примечание: я совершенно не разбираюсь в сетевой безопасности, все мои знания получены из одного разговора с другом, и я подумал, что это будет хорошей аналогией для использования здесь. Простите за любые ошибки в аналогии и исправьте, если возможно!