Anthropic представила «сны» для ИИ: агенты учатся на ошибках

Anthropic внедрила функцию «сны» для ИИ-агентов Claude, позволяющую им обучаться на прошлых сессиях и самосовершенствоваться. Это важный шаг для развития ИИ.

Изображение ИИ-агента Claude или абстракция «сна» искусственного интеллекта от Anthropic.

Компания Anthropic, известный игрок на рынке ИИ, представила инновационную функцию под названием «dreaming» для своих управляемых ИИ-агентов Claude. Эта система позволяет искусственному интеллекту учиться на собственных прошлых ошибках, что является значительным прорывом в самообучении алгоритмов.

Анонс состоялся на второй ежегодной конференции для разработчиков Code with Claude в Сан-Франциско. «Dreaming» даёт ИИ-агентам возможность анализировать свои предыдущие сессии, выявлять недочёты и корректировать поведение. По сути, ИИ теперь может «рефлексировать» над своим опытом, делая его более эффективным и автономным. Это может кардинально изменить подходы к разработке ИИ-систем, делая их способными к более сложному и гибкому поведению. Для индустрии, в том числе игровой, где ИИ используется для создания реалистичных NPC и интерактивного мира, такие технологии открывают новые горизонты. Представьте, как «умные» боты смогут адаптироваться к игроку или динамично менять сюжет, исходя из собственного «опыта».