Утечка секретов: ИИ-агенты слили API ключи через Prompt Injection

Исследователи обнаружили, что три ИИ-агента для кодинга, включая Claude Code и Gemini, утекали секреты через простую инъекцию в заголовок запроса.

Иллюстрация утечки данных из ИИ-систем через prompt injection, показывающая код и символы

Серьёзная уязвимость была обнаружена в работе ИИ-агентов для кодинга: три из них, включая Claude Code от Anthropic и Gemini от Google, слили секретную информацию через обычную prompt injection. Это произошло, когда исследователь безопасности из Университета Джонса Хопкинса ввёл вредоносную инструкцию в заголовок запроса на GitHub pull request.

В результате такого воздействия, Claude Code Security Review опубликовал собственный API ключ в комментариях. Аналогичная инъекция сработала и с Gemini. Это подчёркивает риски, связанные с безопасностью ИИ-систем, которые могут быть скомпрометированы через манипуляции с входными данными. Проблема не ограничивается отдельными моделями и указывает на необходимость более тщательной проверки безопасности ИИ-инструментов, особенно тех, что работают с конфиденциальными данными.