Arcee представила Trinity-Large-Thinking: мощная ИИ-модель из США

Arcee выпустила Trinity-Large-Thinking – мощную ИИ-модель с открытым исходным кодом, разработанную в США для бизнеса.

Концепт ИИ-модели Trinity-Large-Thinking от Arcee с символами открытого кода и американским флагом

Лаборатория Arcee из Сан-Франциско выпустила новую большую языковую модель AI Trinity-Large-Thinking. Эта текстовая ИИ-модель с 399 миллиардами параметров доступна под открытой лицензией Apache 2.0. Лицензия позволяет свободно использовать и адаптировать модель для коммерческих и некоммерческих проектов.

Модель Trinity-Large-Thinking использует архитектуру Mixture-of-Experts. В ней только 1.56% из 400 миллиардов параметров активны для каждого токена. Это позволяет ей работать в 2-3 раза быстрее конкурентов на том же оборудовании, сохраняя при этом глубокие знания. Arcee инвестировала 20 миллионов долларов в 33-дневное обучение модели, задействовав 2048 графических процессоров NVIDIA B300 Blackwell.

Выпуск Trinity-Large-Thinking важен как американская альтернатива моделям, которые закрываются или становятся более ограниченными. Китайские лаборатории, например Qwen и z.ai, переходят к проприетарным решениям. Это создаёт спрос на надёжные открытые модели, особенно для компаний, опасающихся зависимости от иностранных архитектур.

Для обучения разреженной модели Arcee разработала технологию SMEBU (Soft-clamped Momentum Expert Bias Updates). Она равномерно распределяет нагрузку между экспертами. Архитектура также чередует локальные и глобальные слои внимания для эффективной работы с длинными контекстами. Модель обучалась на 20 триллионах токенов, включая курированные веб-данные и высококачественные синтетические данные от DatologyAI. Синтетические данные создавались путём переписывания текста, чтобы модель училась рассуждать, а не просто запоминать. Arcee исключила из обучающего корпуса материалы с неясными лицензиями, чтобы избежать проблем с авторскими правами.

Главная особенность Trinity-Large-Thinking — переход от стандартной модели инструкций к модели рассуждений. Модель теперь имеет фазу «мышления» перед генерацией ответа. Это решает проблемы с многошаговыми инструкциями, которые были у предыдущей версии. Такой подход позволяет создавать «долгосрочных агентов», способных поддерживать связность в сложных задачах. Например, Maestro Reasoning, производная модель Trinity, уже используется в аудиторских отраслях для прозрачной трассировки мыслей.

Лицензия Apache 2.0 особенно важна, так как конкуренты отходят от открытых моделей. Китайские лаборатории, такие как Qwen и z.ai, в 2025 году лидировали в архитектурах MoE, но сейчас переходят к проприетарным платформам. В США Meta также отступила от открытого ландшафта после неоднозначного приёма Llama 4 в апреле 2025 года. Это создало вакуум на рынке открытых моделей, который Arcee стремится заполнить.

Trinity-Large-Thinking показывает высокие результаты в тестах для агентов и рассуждений:

  • PinchBench: 91.9 балла, почти догоняет проприетарный Claude Opus 4.6 (93.3).
  • IFBench: 52.3 балла, близко к Opus 4.6 (53.1), что подтверждает улучшение инструкций.
  • AIME25: 96.3 балла, соответствует Kimi-K2.5 и превосходит GLM-5 (93.3) и MiniMax-M2.7 (80.0).
  • SWE-bench Verified: 63.2 балла, уступает Opus 4.6 (75.6), но значительно дешевле в использовании.

Стоимость Trinity составляет $0.90 за миллион выходных токенов. Это примерно на 96% дешевле Opus 4.6, который стоит $25 за миллион токенов.

Среди других открытых моделей США можно выделить:

  • OpenAI gpt-oss-120B: Максимум 120 миллиардов параметров.
  • Google Gemma 4: Новая версия, выпущенная на этой неделе.
  • IBM Granite 4.0: Имеет более низкие бенчмарки, но заслуживает упоминания.
  • Nvidia Nemotron: Варианты Qwen, дообученные и донастроенные.

Выбор модели зависит от задач:

  • Arcee Trinity-Large-Thinking: Идеальна для автономных агентов, многошаговой логики, сложной математики и длительного использования инструментов. Её 400B архитектура обеспечивает возможности планирования уровня GPT-4o в экономичном открытом фреймворке.
  • gpt-oss-120B: Оптимальный баланс для предприятий, которым нужна высокая производительность рассуждений при низких операционных затратах. Активирует только 5.1B параметров за проход, подходит для технических задач на ограниченном оборудовании. Имеет настраиваемый уровень рассуждений.
  • Google Gemma 4: Подходит для широких высокопроизводительных приложений. Предлагает высокую «плотность интеллекта» для общих знаний и научной точности, универсальна для R&D и быстрых чат-интерфейсов.
  • IBM Granite 4.0: Разработана для круглосуточных корпоративных нагрузок. Использует гибридную архитектуру, устраняющую узкие места контекста для обработки больших документов. Надёжная основа для RAG и анализа документов, особенно важна для соблюдения законодательства.

Выбор лицензии Apache 2.0 от Arcee — это сознательный шаг. Она позволяет предприятиям полностью владеть своим стеком интеллекта, в отличие от более ограничительных лицензий. Разработчики могут проверять, дообучать, размещать и дистиллировать модели. Arcee также выпустила Trinity-Large-TrueBase, необработанную контрольную точку на 10 триллионов токенов. TrueBase даёт исследователям в регулируемых отраслях возможность проводить аудит и настраивать модели с чистого листа.

Сообщество разработчиков позитивно встретило выпуск. Модель Trinity-Large-Preview уже стала самой используемой открытой моделью в США на OpenRouter. Arcee планирует применить полученные уроки к своим моделям Mini и Nano. Это обновит их компактную линейку, передав им возможности рассуждений уровня флагманской модели.