Искусственный интеллект уязвим для взлома?
Переверните ваш вопрос на мгновение и подумайте:
Что сделает ИИ менее подверженным риску взлома по сравнению с любым другим видом программного обеспечения?
В конце концов, программное обеспечение - это программное обеспечение, и всегда будут ошибки и проблемы безопасности. ИИ подвержены риску всех проблем, которым подвержено программное обеспечение, не относящееся к ИИ, поскольку ИИ не дает ему какой-то иммунитет.
Что касается подделки, связанной с ИИ, ИИ рискует получить ложную информацию. В отличие от большинства программ, функциональность ИИ определяется данными, которые он потребляет.
Например, несколько лет назад Microsoft создала чат-бита AI под названием Tay. Людям Твиттера понадобилось менее 24 часов, чтобы научить их говорить: «Мы собираемся построить стену, а Мексика заплатит за это»:
(Изображение взято из статьи Verge, ссылки на которую приведены ниже, я не претендую на это.)
И это только верхушка айсберга.
Некоторые статьи о Тэй:
А теперь представьте, что это был не чат-бот, представьте, что это была важная часть ИИ из будущего, где ИИ отвечает за такие вещи, как не убийство пассажиров автомобиля (т.е. автомобиля с автоматическим управлением) или не убийство пациента на операционный стол (т.е. какое-то медицинское оборудование).
Конечно, можно было бы надеяться, что такие ИИ будут лучше защищены от таких угроз, но предположим, что кто-то нашел способ накормить такой ИИ массой ложной информации, не будучи замеченным (в конце концов, лучшие хакеры не оставляют следов), что действительно может означать разница между жизнью и смертью.
На примере автомобиля с самостоятельным вождением представьте, что из-за ложных данных автомобиль может подумать, что ему необходимо сделать аварийную остановку на автомагистрали. Одним из применений медицинского ИИ является решение о жизни или смерти в ER, представьте, может ли хакер склонить чашу весов в пользу неправильного решения.
Как мы можем предотвратить это?
В конечном счете масштаб риска зависит от того, насколько люди зависимы от ИИ. Например, если бы люди принимали решение ИИ и никогда не ставили его под сомнение, они были бы открыты для всех видов манипуляций. Однако, если они используют анализ ИИ как одну из частей головоломки, было бы легче определить, когда ИИ неправ, будь то случайно или злонамеренно.
В случае принятия медицинского решения, не просто верьте ИИ, проводите физические тесты и узнавайте и человеческое мнение. Если два доктора не согласны с ИИ, выкиньте диагноз ИИ.
В случае с автомобилем одна из возможностей состоит в том, чтобы иметь несколько избыточных систем, которые по сути должны «голосовать» за то, что делать. Если в машине было несколько ИИ в разных системах, которые должны голосовать о том, какое действие предпринять, хакер должен был бы взять больше, чем один ИИ, чтобы получить контроль или вызвать патовую ситуацию. Важно отметить, что если ИИ работали в разных системах, то же самое использование, которое использовалось в одной, не могло быть сделано в другой, что еще больше увеличивало рабочую нагрузку хакера.