MiniMax M2.7 يجلب نموذج ذكاء اصطناعي ب230 مليار معلمة إلى بنية NVIDIA

robot
إنشاء الملخص قيد التقدم

تيد هيسوكاوا

12 أبريل 2026 01:37

أصدرت شركة MiniMax نسخة M2.7، وهي نموذج مختلط من الخبراء بوزن 230 مليار معلمة محسّن لوحدات معالجة الرسومات من NVIDIA مع زيادات في الإنتاجية تصل إلى 2.7 ضعف على أجهزة بلاكويل.

أصدرت شركة MiniMax نموذج M2.7، وهو نموذج ذكاء اصطناعي مفتوح الوزن بوزن 230 مليار معلمة مصمم خصيصًا لعمليات الوكيل المستقلة، متاح الآن عبر نظام استنتاج NVIDIA بما في ذلك أحدث وحدات معالجة الرسومات بلاكويل ألترا.

يمثل النموذج خطوة هامة نحو الكفاءة في الذكاء الاصطناعي المؤسسي. على الرغم من حجمه الهائل الذي يبلغ 230 مليار معلمة، فإن M2.7 ينشط فقط 10 مليارات معلمة لكل رمز—معدل تفعيل بنسبة 4.3% يتم تحقيقه من خلال بنية مختلط من الخبراء (MoE) مع 256 خبير محلي. هذا يحافظ على تكاليف الاستنتاج مع الحفاظ على قدرة التفكير لنموذج أكبر بكثير.

أرقام الأداء على بلاكويل

تعاونت NVIDIA مع مجتمعات المصادر المفتوحة لتحسين M2.7 لأعباء العمل الإنتاجية. أدت تحسينات رئيسية—نواة دمج QK RMS Norm ودمج FP8 MoE من TensorRT-LLM—إلى تحسينات كبيرة في الإنتاجية على وحدات معالجة الرسومات بلاكويل ألترا.

اختبار باستخدام مجموعة بيانات بطول تسلسل إدخال/إخراج 1K/1K أظهر أن vLLM حقق زيادة في الإنتاجية تصل إلى 2.5 ضعف، بينما حقق SGLang زيادة قدرها 2.7 ضعف. تم تنفيذ كلا التحسينين خلال شهر واحد، مما يشير إلى وجود مجال لتحسين الأداء أكثر.

الهيكلية التقنية

يدعم M2.7 طول سياق إدخال يصل إلى 200 ألف عبر 62 طبقة، باستخدام انتباه ذاتي سببي متعدد الرؤوس مع تضمينات موضعية دوارة (RoPE). آلية توجيه الخبراء من نوع top-k تنشط فقط 8 من الخبراء الـ256 لأي إدخال معين، وهو ما يحافظ على انخفاض تكاليف الاستنتاج رغم حجمه.

يستهدف الهيكل تحديات الترميز والمهام المعقدة التي تتطلب وكيلًا—وهو سير عمل حيث تحتاج أنظمة الذكاء الاصطناعي إلى التخطيط والتنفيذ والتكرار بشكل مستقل بدلاً من الاستجابة لموجه واحد.

خيارات النشر

يمكن للمطورين الوصول إلى M2.7 عبر قنوات متعددة. يوفر إطار عمل NemoClaw من NVIDIA نشرًا بنقرة واحدة لتشغيل وكلاء مستقلين باستخدام بيئة OpenShell. النموذج متاح أيضًا من خلال حاويات NIM من NVIDIA للخدمات المصغرة المعبأة للحوسبة المحلية أو السحابية أو الهجينة.

للفرق التي ترغب في تخصيص النموذج، يدعم مكتبة NeMo AutoModel من NVIDIA التخصيص الدقيق باستخدام وصفات منشورة. تتوفر سير عمل التعلم المعزز من خلال NeMo RL مع تكوينات عينة لطول تسلسل 8K و16K.

تتيح نقاط النهاية المعززة بواسطة GPU المجانية على build.nvidia.com الاختبار قبل الالتزام بالبنية التحتية. كما تتوفر الأوزان المفتوحة على Hugging Face للنشر الذاتي.

تضع النسخة الجديدة MiniMax كبديل موثوق به للنماذج المغلقة من OpenAI وAnthropic للمؤسسات التي تبني أنظمة ذكاء اصطناعي مستقلة، خاصة تلك التي استثمرت بالفعل في بنية NVIDIA التحتية.

مصدر الصورة: Shutterstock

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.28Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.35Kعدد الحائزين:2
    0.14%
  • القيمة السوقية:$4.07Kعدد الحائزين:5
    11.69%
  • القيمة السوقية:$2.28Kعدد الحائزين:1
    0.00%
  • تثبيت