استنادًا إلى مراقبة 1M AI News، أطلقت شركة نماذج الذكاء الاصطناعي الأمريكية Arcee Trinity-Large-Thinking، وهو نموذج استدلال مفتوح المصدر موجّه لمهام الـ Agent التي تتطلب وقتًا طويلًا. يستخدم النموذج بنية خبراء مختلطين متفرقة (MoE)، بإجمالي معلمات 400B، بينما تكون المعلمات المُفعّلة فقط 13B، ويمكن تنزيل الأوزان المفتوحة على Hugging Face بموجب ترخيص Apache 2.0.
وبخلاف Trinity-Large-Preview السابق (الذي يعتمد على ضبط دقيق للتعليمات فقط)، فإن Trinity-Large-Thinking يقوم بتنفيذ “تفكير استدلالي” قبل تقديم الإجابة، كما شهدت قدرات متعددة: استدعاءات أدوات متعددة الدورات، الاتساق ضمن سياق طويل، والالتزام بالتعليمات؛ حيث تم تحسين جميعها. ويتمثل الهدف التصميمي الأساسي في الحفاظ على مخرجات مستقرة خلال حلقات Agent طويلة المدة.
حقق أداءً بلغ 91.9 على معيار قدرات الـ Agent PinchBench، الذي تم تطويره في Kilo، ليحل في المركز الثاني خلف Opus 4.6 (93.3) فقط. كما سجل 88.0 على معيار مهام الـ Agent Tau2-Airline، وهو الأعلى بين جميع نماذج المقارنة. لكن أداءه على معايير الاستدلال العام يعد متوسطًا: إذ بلغت درجته في GPQA-D 76.3، أقل من Kimi-K2.5 (86.9) وOpus 4.6 (89.2). كما بلغت درجة MMLU-Pro 83.4، وحل كذلك في ذيل الترتيب. ووفقًا لما ذكرته Arcee رسميًا، فإن هذا النموذج “هو أقوى نموذج مفتوح المصدر خارج الصين في العديد من الأبعاد”.
تسعير Arcee API هو 0.90 دولار لكل مليون token للإخراج. ووفقًا لـ Arcee فهو أرخص بنحو 96% من Opus 4.6. كما تم إطلاق النموذج بالتزامن على منصة توجيه نماذج الذكاء الاصطناعي OpenRouter، مع توفر استخدام مجاني عبر OpenClaw خلال الأيام الخمسة الأولى. منذ صدور Preview في أواخر شهر يناير، خدم على OpenRouter أكثر من 3.37 تريليون token، وهو نموذج أمريكي يحتل المرتبة الأولى من حيث الاستخدام ضمن OpenClaw، والرابع عالميًا من بين نماذج المصدر المفتوح. وستستمر Preview في تقديمه مجانًا على OpenRouter.