Безопасность ИИ-агентов: как изолировать угрозы

Эксперты RSAC 2026 бьют тревогу: учетные данные ИИ-агентов уязвимы. Предложены новые архитектуры для усиления безопасности и внедрения принципа Zero Trust.

Схематическое изображение нейронной сети или ИИ-агента, окруженного защитным барьером, символизирующим безопасность Zero Trust.

На конференции RSAC 2026 ведущие эксперты по кибербезопасности независимо друг от друга пришли к выводу: необходимо срочно пересмотреть подход к безопасности ИИ-агентов. Проблема заключается в том, что учетные данные агентов зачастую находятся в одном окружении с ненадежным кодом.

По словам Васу Джаккал из Microsoft, принцип «нулевого доверия» (Zero Trust) должен быть распространен и на системы искусственного интеллекта. Джиту Патель из Cisco предложил переход от контроля доступа к контролю действий, что позволит точнее ограничивать возможности ИИ-агентов. Представлены две новые архитектуры, которые демонстрируют, как эффективно изолировать потенциальные угрозы, тем самым значительно повышая уровень защиты критически важных данных и операций.