Anthropic объяснила снижение качества работы ИИ Claude
Anthropic подтвердила, что изменения в инструкциях и структуре ИИ Claude привели к ухудшению его производительности, ранее отмеченному пользователями как "AI-шринкфляция".
Компания Anthropic, разработчик ИИ-модели Claude, наконец-то объяснила причину замеченного пользователями снижения качества работы своих флагманских продуктов. В течение нескольких недель разработчики и активные пользователи жаловались на "AI-шринкфляцию", то есть ощутимое ухудшение возможностей Claude.
По словам представителей Anthropic, причина крылась в изменениях, которые внесли в "harnesses" (ограничивающие механизмы) и операционные инструкции Claude. Эти внутренние корректировки, призванные оптимизировать работу модели, непреднамеренно привели к снижению её способности поддерживать длительные и сложные рассуждения. Проблема была обнаружена после многочисленных отчётов на GitHub, X (бывший Twitter) и Reddit, где пользователи делились наблюдениями о менее интеллектуальных ответах и потерей "остроты" ИИ. Anthropic пообещала устранить эти проблемы, чтобы вернуть Claude к прежнему уровню производительности.