Безопасность ИИ-агентов: как изолировать угрозы
Эксперты RSAC 2026 бьют тревогу: учетные данные ИИ-агентов уязвимы. Предложены новые архитектуры для усиления безопасности и внедрения принципа Zero Trust.
На конференции RSAC 2026 ведущие эксперты по кибербезопасности независимо друг от друга пришли к выводу: необходимо срочно пересмотреть подход к безопасности ИИ-агентов. Проблема заключается в том, что учетные данные агентов зачастую находятся в одном окружении с ненадежным кодом.
По словам Васу Джаккал из Microsoft, принцип «нулевого доверия» (Zero Trust) должен быть распространен и на системы искусственного интеллекта. Джиту Патель из Cisco предложил переход от контроля доступа к контролю действий, что позволит точнее ограничивать возможности ИИ-агентов. Представлены две новые архитектуры, которые демонстрируют, как эффективно изолировать потенциальные угрозы, тем самым значительно повышая уровень защиты критически важных данных и операций.