جيمعة جوجل بالفعل تتصرف مثل جيميني—شخص جعلها تفكر مثل كلود أوبس أيضًا

إذا كنت تتابع المشهد المحلي للذكاء الاصطناعي، فمن المحتمل أنك تعرف Qwopus—النموذج مفتوح المصدر الذي حاول تلخيص استنتاجات Claude Opus 4.6 في نموذج Qwen الخاص بشركة علي بابا، بحيث يمكنك تشغيل شيء يشبه Opus على أجهزتك مجانًا. لقد نجح بشكل مفاجئ جيد. المشكلة الواضحة: Qwen هو نموذج صيني، وليس الجميع مرتاحًا لذلك. سمع Jackrong، المطور المجهول الاسم نفسه وراء ذلك المشروع، التعليقات. إجابته هي Gemopus—عائلة جديدة من النماذج المخصصة على نمط Claude Opus مبنية بالكامل على Gemma 4 مفتوحة المصدر من جوجل. الحمض النووي الأمريكي، نفس الفكرة: استنتاجات على مستوى الحدود، تعمل محليًا على الأجهزة التي تملكها بالفعل. تأتي العائلة بنسختين. Gemopus-4-26B-A4B هو الخيار الأثقل—نموذج مزيج من الخبراء يضم 26 مليار معلمة إجمالاً، لكنه ينشط حوالي 4 مليارات فقط أثناء الاستنتاج، مما يعني أنه يتفوق على وزنه على الأجهزة المقيدة. المعلمات هي ما يحدد قدرة الذكاء الاصطناعي على التعلم، والاستنتاج، وتخزين المعلومات. وجود 26 مليار معلمة إجمالاً يمنح النموذج مدى واسعًا من المعرفة. لكن عن طريق “إيقاظ” فقط الـ 4 مليارات المعلمة ذات الصلة بموجهك المحدد، فإنه يوفر نتائج عالية الجودة من ذكاء اصطناعي ضخم مع البقاء خفيفًا بما يكفي ليعمل بسلاسة على الأجهزة اليومية. والآخر هو Gemopus-4-E4B، نموذج حافة بقيمة 4 مليارات معلمة مصمم للعمل بشكل مريح على iPhone حديث أو MacBook خفيف الوزن—بدون الحاجة إلى GPU.  اختيار النموذج الأساسي مهم هنا. تم إصدار Gemma 4 من جوجل في 2 أبريل، وهو مبني مباشرة من نفس البحث والتقنية مثل Gemini 3—قالت الشركة ذلك صراحة عند الإطلاق. هذا يعني أن Gemopus يحمل شيئًا لا يمكن لأي تعديل مبني على Qwen أن يدعيه: الحمض النووي لنموذج مغلق متطور من جوجل تحت الغطاء، مغلف بأسلوب تفكير Anthropic على القمة. أفضل ما في العالمين، أكثر أو أقل. ما يميز Gemopus عن موجة التعديلات الأخرى على Gemma التي تملأ حاليًا منصة Hugging Face هو الفلسفة وراءه. اختار Jackrong عمدًا عدم إجبار مسارات استنتاج Claude على أوزان Gemma—اختصار تتبناه معظم الإصدارات المنافسة. حجته، المدعومة بأبحاث حديثة، هي أن ملء نموذج طالب بنص استنتاجات سطحية لمعلمه لا ينقل فعليًا القدرة على الاستنتاج الحقيقي. إنه يعلم التقليد، وليس المنطق. “لا حاجة لخيال مفرط أو تكرار خرافي لنمط تفكير Claude”، تقول بطاقة النموذج. بدلاً من ذلك، ركز على جودة الإجابة، والوضوح الهيكلي، والطبيعة الحوارية—معالجة نغمة Wikipedia الجامدة في Gemma وميولها إلى إلقاء المحاضرات حول أشياء لم تسأل عنها. قام مهندس بنية الذكاء الاصطناعي Kyle Hessling بإجراء اختبارات مستقلة ونشر النتائج مباشرة على بطاقة النموذج. كانت حكمه على نسخة 26B إيجابية جدًا. “سعيد جدًا باختبار هذا النموذج بقوة وهو تعديل ممتاز لنموذج استثنائي بالفعل،” كتب على X. “يتميز بطلبات ذات مرة على سياقات طويلة، ويعمل بسرعة مذهلة بفضل بنية MOE (مزيج الخبراء).”

Gemopus-4-26B-A4B من Jackrong مباشر!

سعيد جدًا باختبار هذا النموذج بقوة (شاهد اختبارات الأداء في بطاقة النموذج) وهو تعديل ممتاز لنموذج استثنائي بالفعل! صديقي Jackrong دائمًا يبدع بأفضل ما لديه!

إنه يتفوق في الطلبات ذات مرة على سياقات طويلة…

— Kyle Hessling (@KyleHessling1) 10 أبريل 2026

النسخة E4B الأصغر اجتازت جميع 14 اختبار كفاءة أساسي—اتباع التعليمات، البرمجة، الرياضيات، الاستنتاج متعدد الخطوات، الترجمة، السلامة، التخزين المؤقت—وتخطت جميع 12 اختبار سياق طويل عند 30K و60K رمز. في اختبار استرجاع الإبرة في كومة القش، اجتازت 13 من 13 اختبارًا بما في ذلك اختبار التمدد عند مليون رمز باستخدام YaRN 8× RoPE.

يمتد نموذج 26B بشكل أصلي إلى سياق 131K وإلى 524K مع YaRN، والذي قام Hessling أيضًا باختباره بشكل مكثف: “كما سحق اختباراتي البسيطة لاسترجاع الإبرة في كومة القش حتى سياق ممتد يصل إلى 524 ألف!” على الأجهزة الحدية، E4B سريع حقًا. يذكر Jackrong أنه يحقق 45–60 رمز في الثانية على iPhone 17 Pro Max، و90–120 رمز في الثانية على MacBook Air M3/M4 عبر MLX. بنية MoE لنموذج 26B تعني أنه يتوزع بشكل مرن على أنظمة الذاكرة الموحدة أو وحدات معالجة الرسوميات التي تحتوي على أقل من 10 جيجابايت من VRAM. وصفه Hessling بأنه توصيته اليومية للأنظمة التي تعاني من نقص VRAM.

كلا النموذجين متاحين بصيغة GGUF، مما يعني أنه يمكنك إدخاله مباشرة في LM Studio أو llama.cpp بدون إعدادات. الكود الكامل للتدريب ودليل التعديل خطوة بخطوة موجود على GitHub الخاص بـ Jackrong—نفس خط الأنابيب الذي استخدمه لـ Qwopus، ونفس إعدادات Unsloth و LoRA، ويمكن إعادة إنتاجه على Colab. Gemopus ليس خاليًا من عيوبه. لا تزال وظيفة استدعاء الأدوات معطلة عبر سلسلة Gemma 4 في llama.cpp و LM Studio—فشل في الاستدعاء، عدم تطابق في التنسيق، حلقات—لذا إذا كان سير عملك يعتمد على وكلاء يستخدمون أدوات خارجية، فهذه ليست نماذجك بعد. يصف Jackrong نفسه بأنه “مرجع استكشافي هندسي أكثر منه حل جاهز للإنتاج بالكامل”، ويوصي بسلسلة Qwopus 3.5 الخاصة به لمن يحتاج شيئًا أكثر استقرارًا للأعباء الحقيقية. وبما أنه تجنب عمدًا تقنيات تقليل استنتاجات Claude-style بشكل مكثف، فلا تتوقع أن يكون أكثر ذكاءً من Opus كما هو الحال في Qwopus—كان ذلك تنازلًا واعيًا من أجل الاستقرار، وليس سهوًا.

نعم، كانت الفلسفة في هذا النموذج هي الاستقرار أولاً، وأفهم أن نماذج Gemma تميل إلى أن تصبح غير مستقرة إذا قمت بإجبارها على إدخال العديد من مسارات تفكير Claude، يمكنك ملاحظة ذلك عند اختبار العديد من التعديلات على Opus gemma على hugging face.

حاول Jackrong…

— Kyle Hessling (@KyleHessling1) 10 أبريل 2026

بالنسبة لمن يرغب في التعمق أكثر في تعديل Gemma من أجل الاستنتاج تحديدًا، هناك أيضًا مشروع مجتمع منفصل يستحق المتابعة: Ornstein من المطور المجهول DJLougen، والذي يأخذ نفس قاعدة Gemma 4 ذات الـ 26B ويركز بشكل خاص على تحسين سلاسل استنتاجاته دون الاعتماد على منطق أو أسلوب أي نموذج طرف ثالث معين. تحذير صادق: ديناميكيات تدريب Gemma أكثر فوضوية من Qwen للمعدلين—تذبذبات أوسع في الخسارة، وحساسية أكبر للمعلمات الفائقة. يقول Jackrong ذلك بنفسه. إذا كنت بحاجة إلى نموذج محلي أكثر اختبارًا من أجل سير عمل الإنتاج، فإن سلسلته Qwopus 3.5 تظل أكثر موثوقية. ولكن إذا كنت تريد نموذجًا أمريكيًا بأسلوب Opus، فإن Gemopus هو خيارك الأفضل حاليًا. هناك نسخة أكثر كثافة بحجم 31B من Gemopus قيد التطوير، مع Hessling يلمح إليها بأنها “مميزة بالتأكيد.” إذا رغبت في تجربة تشغيل نماذج محلية على أجهزتك، راجع دليلنا حول كيفية البدء مع الذكاء الاصطناعي المحلي.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت