За даними моніторингу 1M AI News, американська AI-компанія Arcee випустила Trinity-Large-Thinking — open-source модель міркування, призначену для агентних задач, що тривають довго. Модель використовує розріджену архітектуру суміші експертів (MoE), загальні параметри 400B, активовані параметри лише 13B. Вага доступна для завантаження з Hugging Face під ліцензією Apache 2.0.
На відміну від попередника Trinity-Large-Preview (лише fine-tuning за інструкціями), Trinity-Large-Thinking перед відповіддю спершу виконує «думки» міркування, має покращення в багаторазових викликах інструментів, узгодженості довгого контексту та здатності дотримуватися інструкцій. Ключовою проектною метою є забезпечення стабільного виводу в циклах довготривалого Agent.
У тестовому бенчмарку агентних можливостей PinchBench, розробленому Kilo, модель набрала 91.9, посіла друге місце, поступившись лише Opus 4.6 (93.3); у бенчмарку агентних задач Tau2-Airline — 88.0, що є найвищим серед усіх порівнюваних моделей. Однак результати в універсальних бенчмарках міркувань загалом посередні: GPQA-D — 76.3, нижче за Kimi-K2.5 (86.9) та Opus 4.6 (89.2); MMLU-Pro — 83.4, також замикає таблицю. За офіційними формулюваннями Arcee, ця модель у «багатьох вимірах є найсильнішою відкритою моделлю поза межами Китаю».
Ціни Arcee API становлять $0.90 за мільйон tokenів на виході. Як зазначає Arcee, це приблизно на 96% дешевше, ніж Opus 4.6. Модель одночасно запущено на платформі маршрутизації AI-моделей OpenRouter; перші 5 днів її можна безкоштовно використовувати в OpenClaw. Після релізу наприкінці січня Preview вже обслуговує понад 3.37 трлн tokenів на OpenRouter — це перша за використанням від американських і четверта у світі відкрита модель, яку зібрав OpenClaw. Preview і надалі безкоштовно надаватиметься на OpenRouter.