الحلول الستة الناشئة للتحقق من الذكاء الاصطناعي في عام 2025

متوسط4/17/2025, 2:03:08 AM
يستكشف هذا المقال حلولًا متطورة في مجال تحقق الذكاء الاصطناعي في عام 2025، مع تحليل عميق لستة مشاريع رئيسية: EigenLayer, Hyperbolic, Mira, Atoma, Fortytwo, و Lagrange. تتبنى هذه المبادرات نهجًا تقنيًا متنوعًا—بما في ذلك Proof-of-Sampling (PoSP)، Trusted Execution Environments (TEEs)، وZero-Knowledge Proofs (ZKPs)—لمعالجة تحدي موثوقية إخراج الذكاء الاصطناعي. تقدم كل حلا مزايا فريدة وتناسب حالات الاستخدام المحددة، مما يعزز جماعيًا تطوير البنية التحتية للذكاء الاصطناعي المتمركز.

إعادة توجيه العنوان الأصلي 'AI and Verifiability'

مع تكامل أنظمة الذكاء الاصطناعي بشكل متزايد مع النظم البيئية للبلوكشين، يصبح ضمان قابلية التحقق من نتائج الذكاء الاصطناعي ركيزة أساسية لتعزيز الثقة والشفافية والمساءلة. وهذا أمر حاسم بشكل خاص لتطبيقات التمويل اللامركزي (DeFi) وتطبيقات دليل الشخصية، حيث يمكن أن تؤثر الدقة والموثوقية مباشرة على النتائج المالية وقرارات الحوكمة وهوية المستخدم.

الحالة من أجل الذكاء الاصطناعي القابل للتحقق في الأنظمة اللامركزية

رصد الذكاء الاصطناعي

يضمن أن عمليات اتخاذ القرار شفافة ومفهومة. يحصل أصحاب المصلحة على رؤية حول كيفية استنتاج القرارات - الأمر الحيوي عندما تؤثر القرارات على المعاملات على السلسلة أو حوكمة بمقياس كبير.

تتبع المصدر

يتتبع البيانات والمعلمات والهندسيات النمذجية المستخدمة لإنشاء توقعات الذكاء الاصطناعي. من خلال تحديد مصدر البيانات، يعرف المستخدمون من أين جاءت بيانات التدريب والنماذج التي تم استخدامها، مما يعزز الثقة ويقلل من احتمالية نشر المعلومات الخاطئة.

التحقق من الناتج

يؤكد أن النتائج النهائية للذكاء الاصطناعي دقيقة ولم يتم تغييرها. في سياق اللامركزية، ينطوي هذا في كثير من الأحيان على آليات إثبات (على سبيل المثال، البراهين بدون معرفة، توافق العينات) لضمان أن الحسابات أو الاستنتاجات لم يتم التلاعب بها خارج السلسلة.

التحديات في التحقق من صحة الذكاء الاصطناعي على السلسلة الكتلية

بينما تتفوق سلاسل الكتل في توفير دفاتر الأستاذ غير القابلة للتغيير والثقة الموزعة ، يمكن أن تكون حسابات الذكاء الاصطناعي على السلسلة باهظة الثمن. على سبيل المثال ، قد يستهلك ضرب المصفوفة لعدد صحيح 1000×1000 مليارات الغاز - بما يتجاوز حد غاز الكتلة الحالي ل Ethereum (Zheng et al. ، 2021). وبالتالي ، تعتمد معظم مشاريع الذكاء الاصطناعي على الحساب خارج السلسلة مع التحقق على السلسلة.

ومع ذلك، تقدم النهج خارج السلسلة تحديات جديدة:

احتيال محتمل: بدون التحقق القوي، يمكن للجهات الخبيثة تقديم بيانات غير صحيحة أو معدلة.

نقاط الضعف المركزية: الاعتماد على مهتمين خارج السلسلة أو الخوادم الخاصة يمكن أن يضعف الأخلاق اللامركزية، مما يؤدي إلى الرقابة أو نقاط الفشل الفردية.

لذلك، تهدف الحلول الناشئة إلى الحفاظ على أداء عالٍ مع تضمين التحقق الشبكي أو القائم على العينات، متوازنة بين الكفاءة واللامركزية.

طبقة الايجن

EigenLayer هو بروتوكول لإعادة الرهان يسمح للمحققين في Ethereum بـ "إعادة الرهان" على عملاتهم الرقمية لتأمين خدمات لامركزية إضافية، المعروفة باسم خدمات التحقق النشطة (AVS). بدلاً من الحاجة إلى مجموعة جديدة من المحققين لكل مهمة متخصصة (على سبيل المثال، التحقق من الذكاء الاصطناعي، وعمليات السلسلة العابرة)، يُعيد EigenLayer استخدام شبكة المحققين القوية واللامركزية لـ Ethereum.

يعزز EigenLayer الأمان عن طريق السماح لخدمات التحقق النشطة الجديدة (AVS) بالوصول إلى مجموعة المحققين الحالية في Ethereum. إن هذه المجموعة من المحققين كبيرة بالفعل ورأسمالها جيد، وموزعة جغرافيا، مما يوفر ضمانات تشفيرية قوية دون الحاجة إلى إعادة تشغيل شبكة جديدة من الصفر.

من خلال تمكين إعادة الوضع الغير نشط، تقلل EigenLayer بشكل كبير من التكاليف التشغيلية. لم تعد المشاريع بحاجة لإنشاء وصيانة البيئات الخاصة بها للمحققين، مما يقلل من تكاليف البنية التحتية والحواجز التي تعترض إطلاق خدمات لامركزية جديدة على السلسلة.

بالإضافة إلى ذلك، يقدم النظام مرونة عالية. يمكن لـ AVS تخصيص توافقهم الخاص ومنطق التحقق بينما لا يزالون يرثون الأمان على الطبقة الأساسية لـ Ethereum، مما يجعل EigenLayer أساسًا مثاليًا للتطبيقات اللامركزية القابلة للتوسيع والآمنة والقابلة للتطبيق.

دليل هايبربوليك على عملية العينات (PoSP)

تقدم شركة Hyperbolic Labs Proof of Sampling (PoSP)، بديل فعال وقابل للتوسيع لبراهين zkML التقليدية أو البراهين المتفائلة للتحقق من الذكاء الاصطناعي. يضمن هذا البروتوكول الجديد القائم على العينات أن يثق المستخدمون في نتائج نماذجهم التي يتم تدريبها وتشغيلها على شبكة GPU لدينا. هذا البروتوكول، المعروف باسم Proof of Sampling (PoSP)، هو المعيار الجديد الذهبي للتحقق في مجال الذكاء الاصطناعي.

تم تطويره بواسطة فريق Hyperbolic بالتعاون مع باحثين من جامعة كاليفورنيا بيركلي وجامعة كولومبيا، يستخدم PoSP نظرية الألعاب لتأمين الأنظمة اللامركزية. يقوم بتحقق عينة استراتيجية من النتائج وينفذ عملية تحكيم للعقداء غير الصادقين لتحفيز السلوك الصادق بنسبة 100٪ عبر الشبكة.

يقدم دليل الأدلة العشوائية (PoSP) عدة مزايا رئيسية: فهو يمكن من التحقق الفعّال عن طريق إضافة أقل من 1% من التكلفة الحاسوبية الإضافية، مما يسمح للعقد بالحفاظ على سرعات التشغيل القريبة من الأصل. أمانه القوي يضمن بقاء المشاركين صادقين، حيث تجعل الفحوص العشوائية الغش أمرًا مجازفًا للغاية. من خلال التحفيزات اللعبية النظرية، يخلق PoSP توازن ناش صافي حيث تكون السلوك الصادق دائمًا الخيار العقلاني. وأخيرًا، يعتبر PoSP قابلاً للتوسيع بشكل كبير لخدمات الذكاء الاصطناعي، حيث يمكنه دعم أعباء العمل الضخمة للذكاء الاصطناعي المتمركزة بينما يضمن بقاء عمليات الحوسبة الفعّالة والعمليات الاستدلالية موثوقة وجديرة بالثقة.

التدقيق العشوائي: مجموعة دورية من المحققين (من خلال طبقة Eigen) تقوم بعينات وفحص منتظم للحوسبات الذكية. يمنع هذا التحقق المستمر الغش النظامي.

تحفيز التوازن ناش: السلوك الخبيث غير اقتصادي للمحققين - النتائج غير الصادقة أو غير المتسقة تؤدي إلى عقوبات يمكن تقطيعها.

إن استخدام PoSP يقلل من العبء الأدائي، مما يجعله مناسبًا تمامًا لحالات الاستخدام التي تتطلب استنتاجات AI سريعة ومتكررة.

على عكس حلول الذكاء الاصطناعي اللامركزية الأخرى، عند تشغيل التستدل على شبكة Gate.io اللامركزية، يمكنك أن تكون واثقًا من أنك تتلقى نتيجة صالحة.

من خلال دمج PoSP في EigenLayer، يمكن لخدمات الذكاء الاصطناعي اللامركزية تحقيق إطار آمن ومصغر للثقة يمكنه معالجة عدد متزايد من طلبات الاستدلال دون التضحية باللامركزية أو كفاءة التكلفة.

التحقق عشوائيًا: يتم اختيار المحققين بشكل عشوائي للتحقق من النتائج، مما يضمن نتائج غير متحيزة.

الدعم المتطور لـ AVS: يقلل PoSP من المطالبات الحسابية، مما يتيح لـ EigenLayer تأمين الخدمات على نطاق واسع بكفاءة.

ردع الاحتيال: تجعل العقوبات الصارمة الغش غير مربح، بينما يظل السلوك الصادق الاستراتيجية الأمثل.

البروتوكول EigenLayer بالاقتران مع بروتوكول Proof of Sampling الخاص بنا يحدث تحولًا جذريًا في كيفية تأمين الخدمات اللامركزية. نحن الآن نقدم بنية تحتية موثوقة وقابلة للتوسيع ومقاومة للاحتيال بكلفة تشكيلية قليلة. - جاسبر زانغ، الرئيس التنفيذي لشركة هايبربوليك


اقرأ الورقة الكاملة حول PoSP هنا

ميرا

تهدف شبكة Mira إلى معالجة تحدي أساسي في مجال الذكاء الاصطناعي، وهو تميل النماذج اللغوية الكبيرة (LLMs) إلى توليد معلومات غير صحيحة. صممت لتقليل الهلوسة وزيادة دقة الإخراج دون إشراف بشري، تستغل Mira شبكة لامركزية من العقد المستقلين للتحقق من إخراجات الذكاء الاصطناعي بشكل موثوق به بشكل متوازي.

هناك ثلاث خطوات في هندسة ميرا

تثنيم

عملية تقسيم الإخراجات إلى 'مطالب' أبسط.

التحقق الموزع

تم التحقق من المطالبات أعلاه من قبل شبكة من العقدة المدققة التي تعمل بنماذج متخصصة للتحقق من المطالبات. يتم إجراء التحقق بتنسيق سؤال متعدد الخيارات. يتم تقسيم المطالبات للتحقق عشوائيًا عبر المدققين، مما يجعل الاتفاق صعباً.

دليل التحقق

آلية توافقية هجينة تجمع بين دليل العمل (PoW) ودليل الحصة (PoS) تُستخدم. يحتاج كل محقق إلى رهن للمشاركة في التحقق. تضمن هذه الطريقة أن المحققين يقومون فعليًا بالاستدلال، بدلاً من المجرد الشهادة. سيتم تقليص رهن المحقق إذا تبين أن إخراجه يتخلف باستمرار عن التوافق.

بمجرد التوصل إلى اتفاق من قبل الشبكة بشأن الناتج، يتم إنشاء شهادة تشفيرية وكتابتها إلى سلسلة الكتل، مما يخلق سجلاً لا يمكن تغييره للحقائق المتحققة.


المصدر:الورقة البيضاء لشبكة ميرا

الخصوصية هي جانب أساسي في تصميم Mira. نظرًا لأن الادعاءات مجزأة بشكل عشوائي، فإنه ليس من الممكن لمشغل العقدة الفردية إعادة بناء الإخراج الأصلي. بالإضافة إلى ذلك، يتم الاحتفاظ بالردود على التحقق من قبل المحققين المستقلين بشكل خاص قبل التوافق، مما يمنع تسرب المعلومات.

ميرا تبحث عن التحقق من محتوى معقد بشكل متزايد، والذي يتضمن رموزًا، بيانات منظمة، ومحتوى وسائط متعددة. في المستقبل، ستقوم ميرا أيضًا بإعادة بناء المحتوى غير الصالح عند اكتشاف محتوى غير صالح، مما يحقق دقة وسرعة في إخراج الذكاء الاصطناعي. في نهاية المطاف، ستكون شبكة ميرا قادرة على تراكم حقائق آمنة اقتصاديًا، مما يخلق قاعدة بيانات للتحقق من الحقائق.

مع زيادة استخدام الشبكة - توليد رسوم أعلى - جوائز التحقق الأفضل - جذب المزيد من مشغلي العقد - تحسين الدقة والتكلفة والتأخر في التحقق من الإجابات

أتوما

أتوما شبكة تنفيذ ذكاء اصطناعي لامركزية وخاصة وقابلة للتحقق، مباشرة على شبكة سوي الرئيسية. يتكون الهندسة المعمارية الأساسية من ثلاثة عناصر: (أ) طبقة الحساب و؛ (ب) طبقة التحقق و؛ (ج) طبقة الخصوصية.

طبقة الحوسبة

شبكة عالمية من العقد التنفيذية التي تعالج طلبات الاستدلال. يتوفر عدد كبير من العقد بالتعاون مع مراكز البيانات المختلفة، وأجهزة الحواف مثل أجهزة الأفراد الرقمية.

مع Atoma، تتوفر أوزان النموذج محليًا على العقد، مما يزيد من سرعة الاستدلال عند استلام طلب. بالإضافة إلى ذلك، يتم توجيه الطلبات المستلمة إلى العقد الأكثر ملاءمة، مطابقة المهمة مع الأداء والتكلفة المقابلين.

يتمحور أتوما حول تحسين كفاءة تشغيل الاستدلال من خلال مجموعة من الميزات، بما في ذلك الانتباه السريع والانتباه المقسم، وكلاهما يساهم في تقليل العبء الحسابي.

طبقة التحقق

يتم التحقق من سلامة الحسابات من خلال التوافق على العينات. هذه عملية حيث يتم اختيار العقد بشكل عشوائي لتشغيل الاستنتاج، وتوليد تجزئة تشفيرية للناتج. إذا كانت جميع التجزئات التي تم إنشاؤها بواسطة مجموعة العقد المختارة تتطابق، يتم التحقق من الناتج الناتج. في حالة وجود اختلاف بين التجزئات المولدة، ستبحث الشبكة عن العقد غير الصادق، الذي سيتم معاقبته من خلال تقليص حصته.

فرصة لهجوم خبيث للتحكم في نصف أو أكثر من طاقة وحدة معالجة الرسومات للشبكة بأكملها للعب النظام منخفضة جدًا، ويصبح أمرًا أصعب مع توسيع شبكة العقد. يمكن تحديد عدد العقد المختارة للعينة بمرونة، حيث يمكن اختيار مجموعة أكبر من العقد للمهام ذات المخاطر العالية.

طبقة الخصوصية

يولي Atoma اهتمامًا خاصًا بالحفاظ على بيانات المستخدمين آمنة وخاصة، من خلال تشغيل العمليات الحسابية في بيئة تنفيذ موثوقة (TEE). تتم تشفير البيانات المدخلة من قبل المستخدمين، ولا يتم فك تشفيرها إلا في TEE. يمنع ذلك أي أطراف أخرى على البلوكشين من عرض بيانات المستخدم. بمجرد تشغيل الاستدلال، يتم تشفير الناتج قبل إعادته إلى المستخدمين.

على الرغم من أن الحل أعلاه آمن، إلا أنه يجدي بذكر أنه يأتي بتنازل فيما يتعلق بالعبء الحسابي الأعلى، مما قد يؤدي إلى رسوم أعلى للمستخدمين.

شبكة Aizel

مماثل لشبكة Atoma أعلاه، تختار شبكة Aizel نهجاً يعتمد على TEE. الفارق هنا هو أن Aizel قامت بدمج الحوسبة متعددة الأطراف (MPC) في سير عملها، حيث يتم توجيه مهام الاستدلال إلى TEEs مختلفة. يهدف هذا إلى تحقيق تفريغ الشبكة، مضمناً أن الاستدلال ما زال ممكناً حتى عندما يتم اختراق TEE واحد أو تعطله.

أربعة وأربعون

فورتيتو تدعم نموذج "الاستنتاج السريع" المبني حول النماذج الصغيرة والمتخصصة (SLMs). بدلاً من الاعتماد على AI الضخمة الضخمة، تنسق الشبكة بين عدة نماذج تديرها المساهمين، والتي تم ضبطها بشكل جيد للمهام أو المجالات الخاصة. تعمل هذه النماذج بشكل متوازي - مع التحقق والتنقيح والتدقيق المتبادل لنتائج بعضها البعض - لتقديم استنتاجات أكثر دقة وموثوقية.

تتعامل هذه الهيكلة اللامركزية مع المشاكل التي غالبًا ما تواجه النماذج الكبيرة واحدة، مثل العراقيل في التدريب، ومتطلبات الأجهزة المكلفة، ونقاط الفشل الواحدة. من خلال توزيع الذكاء عبر العديد من النماذج الصغيرة والمساهمين، يضمن Fortytwo كل من التوسعة ومقاومة الأخطاء.

1. النماذج المتخصصة الصغيرة (SLMs)

تهيئة مبنية على النية أولاً

قبل بدء أي مهمة، يحدد المساهمون الهدف والميزانية والقيود. يوفق هذا النهج كل رؤية للإدارة الشاملة - سواء كان ذلك تلخيص النصوص أو تحليل الشفرات أو أي استنتاج متخصص آخر.

تخصصات المساهم المحددة

يقوم مشغلو العقد الفرديين بإحضار نماذجهم المضبوطة بدقة إلى الشبكة. يحتفظون بالتحكم الكامل في الأوزان والانحيازات والبيانات الخاصة، مما يضمن الخصوصية لكل مالك نموذج. يمكن لهذه النماذج المتخصصة التركيز على مجالات مثل تحليل المشاعر، تحليل النصوص القانونية، أو حتى إنشاء رموز محددة لمجال معين.

الخصوصية للأوزان والقياسات

جانب حرج في فورتيتو هو أن المساهمين ليس عليهم مشاركة التفاصيل الأساسية للنموذج الخام. يتم مشاركة نتائج الاستدلال فقط مع الشبكة. يحافظ هذا التصميم على الملكية الفكرية لكل مالك نموذج ويساعد في التخفيف من المخاطر المرتبطة بتعريض البيانات الحساسة.

2. تفسير السرب وتقييم الأقران

تعاون متعدد SLM

يتم تقسيم المهام بين 7-8 (أو أكثر) SLMs متخصصة، تقدم كل منها وجهة نظر مجال فريدة. من خلال تقسيم المهام الكبيرة إلى مشاكل فرعية أصغر، تستفيد الشبكة بشكل أكثر فعالية من قوى كل نموذج.

مزيج مسطح من الخبراء (MoE)

بدلاً من تكديس الخبراء الفرعيين في طبقات متعددة، يستخدم Fortytwo نهج "MoE" المسطح، حيث يعالج كل نموذج البيانات بشكل مستقل. يمكن أن يكون هذا التصميم فعالًا بشكل خاص لأنه يتجنب التعقيد من البوابات الهرمية، مما يتيح للخبراء التركيز فقط على مهمتهم الفرعية المعنية.

الكشف الجماعي عن الأخطاء

يلعب التقييم بالنظرة النقدية دورًا حاسمًا في الحفاظ على دقة الاستدلال. عندما تختلف النماذج، تراقب الشبكة الاختلافات لتحليل أعمق. هذه العملية العابرة للتحقق تعتبر حاسمة لاكتشاف الأخطاء في وقت مبكر وضمان الإخراج عالي الجودة.

3. منخفضة التأخير والحوسبة الموزعة

معدات الأجهزة عالية الجودة للاستهلاك

يتم تحسين Fortytwo للأجهزة مثل Apple Silicon و RTX GPUs، مما يقلل من حواجز التكلفة ويوسع قاعدة المشغلين المحتملين. يقوم هذا النهج بتمكين الذكاء الاصطناعي بشكل ديمقراطي من خلال تمكين المزيد من الأفراد - وليس فقط مراكز البيانات الكبيرة - من المشاركة.

تجميع الإنتشار

يختار العديد من مشغلي العقد السحابية (مثل AWS) أو المجموعات المستضافة ذاتيًا لتقليل التأخير. تصبح المجموعات المنسقة بشكل جيد قيمة خاصة في السيناريوهات التي تتطلب سرعة الاستجابة حيث يمكن أن تؤثر التأخيرات الصغيرة حتى بشكل كبير على تجربة المستخدم.

4. مجتمع مشغل العقدة

زيادة المشاركة

الآلاف من المشاركين أبدوا اهتمامهم بتشغيل عقد الاستنتاج، مما أدى إلى إنشاء شبكة متنوعة وموزعة. توسيع هذا يجلب المزيد من الموارد الحسابية عبر الإنترنت، مما يزيد من قدرة النقل والصمود.

مساهمات نموذج ويكيبيديا مشابه

على غرار كيف يتعاون محررو ويكيبيديا على المقالات ، يمكن لكل مشغل للعقد تحسين أو ضبط النماذج المتخصصة ومشاركة تقنيات الاستدلال المحسنة. يعزز هذا الصيانة والتنقيح الجماعي الابتكار المستمر ويعزز الذكاء الشامل للشبكة.

لاغرانج

تقف Lagrange على الحافة الحديثة لاستخدام تقنية Zero-Knowledge (ZK) لجلب قابلية التحقق إلى الذكاء الاصطناعي. شعارهم - 'مستقبل الذكاء الاصطناعي هو ZK، ومستقبل الإنسانية هو Lagrange' - يؤكد على الاعتقاد بأنه، مع تطور الذكاء الاصطناعي نحو الذكاء الفائق، يجب علينا ضمان شفافية وثقة في كيفية عمل هذه النماذج.

DeepProve: الأداء العالي zkML

  • دليل النموذج الصحيح: يؤكد DeepProve بشكل تشفيري أن النموذج الذكاء الاصطناعي الصحيح تم استخدامه للاستدلال المعطى، دون ترك مجال للتلاعب أو التحريف.
  • دليل الإخراج الصحيح: يضمن أيضًا أن الإخراج يتماشى مع ما سينتجه النموذج بصورة حقيقية، مما يمنع الجهات الخبيثة من حقن نتائج مزيفة.
  • تحسينات في الأداء: تفتخر بجيل برهان أسرع بمعدل 158 مرة وتحقق أسرع بمعدل 671 مرة من العديد من حلول zkML الحالية، مما يجعل النشر على نطاق واسع ممكنًا.

من خلال إزالة تفاعلات الذكاء الاصطناعي "الصندوق الأسود"، يضمن Lagrange أن المستخدمين لا يحتاجون إلى الثقة العمياء في الذكاء الاصطناعي. في البيئات اللامركزية حيث تكون تقليل الثقة أمرًا أساسيًا، يصبح التأكد التشفيري حول سلامة النموذج وصحة الإخراج أمرًا أساسيًا.

وعلاوة على ذلك، تعمل Inference Labs كذراع متخصص في التطبيقات التابعة لـ Lagrange، رابطة بين البحوث والنشرات العملية. بينما يركز Lagrange على التصميم التشفيري الأساسي وتصميم الدوائر، تضمن Inference Labs أن تكون هذه الابتكارات جاهزة للإنتاج.

تكاملات العالم الحقيقي

يدمج zkML في خطوط الأنابيب الحالية لتعلم الآلة، مع التركيز على قطاعات مثل DeFi والألعاب والرعاية الصحية وأصالة سلسلة التوريد.

يتعاون مع قادة الصناعة لاختبار ميزات Lagrange الجديدة تحت ضغوط العالم الحقيقي (على سبيل المثال، عدد معلمات كبيرة، متطلبات تأخير صارمة).

EZKL

EZKL هو نظام مفتوح المصدر لإنشاء الذكاء الاصطناعي المُحقق والتحليلات باستخدام دلائل الصفر المعرفة (ZKPs). يتيح للمطورين إثبات أن نماذج الذكاء الاصطناعي تم تنفيذها بشكل صحيح دون الكشف عن البيانات الحساسة أو تفاصيل النموذج الخاصة. مستوحى من أنظمة مثل Face ID لشركة Apple، يوسع EZKL الأمان الخالي من المساس للنماذج إلى أي نموذج على أي جهاز - دون الاعتماد على أجهزة متخصصة مثل TEEs.

بنية دليل الأدلة الصفرية

تقوم EZKL بتأمين دورة حياة ZKP بأكملها — من تجميع النموذج إلى إنشاء البرهان والتحقق. يقدم المستخدمون نماذج الذكاء الاصطناعي بتنسيق ONNX، الذي تقوم EZKL بتجميعه إلى دوائر صديقة لـ ZK باستخدام نسخة محسنة من نظام إثبات Halo2. ثم يقوم النظام بإنشاء بروفات تشفيرية لتنفيذ النموذج الصحيح يمكن التحقق منها على أي جهاز.

هذه العملية التشفيرية تمكّن الثقة اللامركزية في تطبيقات الذكاء الاصطناعي ذات المخاطر العالية، مثل اتخاذ القرارات المالية، والمصادقة البيومترية، والتحقق من الاستنتاج في الوقت الحقيقي.

الشهادات التعاونية (Cosnarks)

أدخلت EZKL مؤخرًا SNARKs التعاونية (cosnarks)، مما يتيح لطرفين - مثل مالك النموذج ومالك البيانات - توليد دليل ZK مشترك دون كشف أي من أصولهم السرية. على عكس أنظمة إثبات MPC المفوضة، تقضي cosnarks على الافتراضات الثقة الإضافية عن طريق تقييد الحساب إلى الأطراف المعنية فقط.

هذا التقدم يمكن استخدامات مثل التصنيف الائتماني الخاص، استراتيجيات التداول السرية، والتحقق من الهوية بدون معرفة المعلومات. تستفيد التنفيذ من مكتبة Renegade's MPC المحسنة لـ 2PC وهي مدمجة مباشرة في Lilith، طبقة تنظيم السحابة لـ EZKL.

الدعم النموذجي والمرونة

يدعم EZKL مجموعة واسعة من البنيات الأساسية للذكاء الاصطناعي/تعلم الآلة، بما في ذلك CNNs، RNNs، محولات نمط GPT، أشجار القرار ونماذج الانتشار الثابتة. يمكن تحويل أي نموذج متوافق مع معيار ONNX إلى دائرة ZK.

من خلال تجريد منطق النموذج إلى دوائر رياضية، يتيح EZKL التسلسل الزمني الذي يحفظ الخصوصية عبر الصناعات مثل التمويل والرعاية الصحية والهوية. تدعم جميع منطق الشجرة وآليات الانتباه وعمليات المصفوفة على نطاق واسع ضمن الإطار المعتمد على Halo2.

تجربة المطور

تولي EZKL أولوية للوصول وتجاهل التعقيد. لا يحتاج المطورون إلى معرفة تشفير مسبقة، أو تجربة تصميم الدوائر، أو مهارات متقدمة في DevOps. يقدم النظام ربطًا في CLI، Python، JavaScript، و Rust - مما يجعل من السهل تضمين تدفقات العمل ZK في أنابيب ML الحالية.

إنشاء قيود تلقائي، أوامر دليل مبسطة، ودمج سلس مع أدوات التنظيم تسمح للمطورين بالتركيز فقط على منطق التطبيق.

بروتوكول أورا

ORA هو بروتوكول أوراكل غير مرتبط بالسلاسل يربط بين الذكاء الاصطناعي والبلوكشين، مما يمكن المطورين من ببناء تطبيقات متمركزة بالكامل على الثقة، مدعومة بتعلم آلي يمكن التحقق منه. من خلال بنيتها التحتية، يجلب ORA استنتاج الذكاء الاصطناعي، وإنتاج المحتوى، والحساب المعقد مباشرة على السلسلة، مما يقضي على الاعتماد على واجهات برمجة تطبيقات خارج السلسلة أو الحساب المركزي. الابتكار الأساسي فيها يكمن في دمج تنفيذ الذكاء الاصطناعي مع الأدلة التشفيرية، مما يخلق خطوط أنابيب للذكاء الاصطناعي قابلة للبرمجة مع قابلية التحقق المضمنة.

البروتوكول يسمح لأي مطور ببناء تطبيقات حيث يمكن تضمين الإخراجات الذكاء الاصطناعي - سواء كانت رد لنموذج لغوي، صورة مولدة، أو بيان مدقق - داخل العقود الذكية مع ضمانات الفحص والصحة.

أونشين الذكاء الاصطناعي اوراكل (OAO)

بوابة الذكاء الصناعي Onchain (OAO) هي المنتج الرئيسي لـ ORA. يمكنها تمكين العقود الذكية من طلب واستلام والاعتماد على نتائج استنتاجات الذكاء الاصطناعي التي تعمل خارج السلسلة، ولكن تم التحقق منها وتسويتها على السلسلة. يمكن للمطورين استدعاء وظيفة استنتاج الذكاء الاصطناعي من خلال شبكة ORA opML. يتم إرجاع النتيجة من خلال وظيفة ارتجاعية في عقد المستخدم، مما يجعل التطبيقات على السلسلة الذكاء الاصطناعي والمستقلة بالكامل.

تدعم OAO عدة نماذج كبيرة - مثل LLaMA3، والانتشار الثابت، والدردشة/النقاط المفتوحة - تعمل عبر البنية التحتية التي يمكن التحقق منها. يمكن للمطورين دمج OAO على أي سلسلة متوافقة مع EVM، وتسمح العقود الذكية المُبنية مسبقًا مثل Prompt وSimplePrompt بالتنميط السريع مع مراعاة تحسين الغاز.

سير عمل opML والتحقق من الصحة

نظام التعلم الآلي المتفائل (opML) الخاص بـ ORA يشغل طبقة التحقق الخاصة به. عندما يتم بدء وظيفة الاستدلال، يتم نشر النتيجة على السلسلة بفترة تحدي. خلال هذا الوقت، يمكن لمحققي opML التحقق من النتيجة، وإذا كانت غير صحيحة، يمكنهم تقديم دليل على الاحتيال. تحل النتيجة الصحيحة محل تلك التي تم تحديها. يضمن هذا أن النواتج الذكية المضمنة في العقود الذكية يمكن التحقق منها، ومقاومة للرقابة، واقتصادياً آمنة.

هذا النهج المتفائل يوازن الأداء واللامركزية. على عكس zkML، الذي قد يتطلب حسابًا مكثفًا في البداية، يجعل opML من غير المنطقي اقتصاديًا للسلوك غير الصادق أن ينجح - خاصة مع توسيع شبكة المحققين.

تكامل المطور

يتفاعل المطورون مع OAO من خلال واجهة معممة وموديلية. لدمج الذكاء الاصطناعي في عقد ذكي، يرث المطور واجهة استقبال AIOracleCallbackReceiver وينفذ وظيفة aiOracleCallback() لاستقبال النتائج. يمكنهم بعد ذلك استدعاء المكرر لبدء الاستدلال باستخدام معرفات النموذج وبيانات الإدخال وعنوان الاستدعاء الارجاعي.

يتم تنفيذ أربع نماذج حاليًا على Arbitrum، ويمكن أن تكون عملية الدمج بسيطة مثل استخدام قوالب ORA’s Prompt. تدعم البنية التحتية أيضًا حالات استخدام أكثر تقدمًا من خلال تنظيم الحوسبة التي تعمل بنظام Lilith، مما يتيح تسريع الاستنتاج وأعباء العمل عالية الإنتاجية.

عرض النموذج الأولي (IMO)

أنشأت ORA إطار العرض النموذجي الأولي (IMO) لتمييز ملكية نماذج الذكاء الاصطناعي والإيرادات والحوكمة. تقوم ال IMOs بترميز نماذج الذكاء الاصطناعي من خلال هيكل ذو رمزين:

  • ERC-7007: يُربط المراسيم المختبرة للذكاء الاصطناعي (على سبيل المثال، الصور، التنبؤات) مباشرة على السلسلة.
  • ERC-7641: يوزع الإيرادات من استخدام النموذج على حاملي الرموز، مما يخلق نظم ذكاء اصطناعي محفزة ومدارة من قبل المجتمع متوافقة مع الحوافز.

من خلال تمكين الحوكمة وتحقيق الربح من خلال الرموز التمييزية، تمويل IMOs تطوير المصادر المفتوحة مع ضمان استمرارية بنية التحتية للذكاء الاصطناعي على أن تظل غير قابلة للرقابة، ويمكن الوصول إليها على نطاق عالمي، وتملك بشكل جماعي.

الاستنتاج

مع استمرار نمو الرأس المالي الاصطناعي، يصبح الحاجة إلى النواتج الاصطناعية التي يمكن التحقق منها أمرًا حرجًا بشكل متزايد. كما هو واضح من ذلك، هناك نهج متنوعة لضمان عدم الثقة في الحلول الاصطناعية المركزية، بما في ذلك بيئات التنفيذ الموثوقة (TEEs)، ودليل العينات (PoSP)، وتعلم الآلة بدون معرفة (ZKML)، وتعلم الآلة المتفائل (OPML).

تختلف النهج في جوانب مختلفة، وتحديدا التكلفة والوقت المستغرق ومستوى ضمانات الأمان. من المحتمل أن تُستخدم جميع الحلول المذكورة أعلاه بطريقة ما، تبعا لحالات الاستخدام الخاصة.

إخلاء المسؤولية:

  1. هذه المقالة مأخوذة من [Gateهايبربوليك - e/acc]. توجيه العنوان الأصلي 'الذكاء الاصطناعي والقابلية للتحقق'. جميع حقوق النشر تنتمي إلى الكاتب الأصلي [هايبربوليك - e/acc]. إذا كانت هناك اعتراضات على هذا النقل، يرجى الاتصال بالبوابة التعلمالفريق، وسيتولون على التعامل معها على الفور.
  2. إخلاء المسؤولية عن المسؤولية: الآراء والآراء المعبر عنها في هذه المقالة هي فقط تلك المؤلف ولا تشكل أي نصيحة استثمارية.
  3. يقوم فريق Gate Learn بترجمة المقالات إلى لغات أخرى. يُمنع نسخ أو توزيع أو نسخ المقالات المترجمة ما لم يذكر.

الحلول الستة الناشئة للتحقق من الذكاء الاصطناعي في عام 2025

متوسط4/17/2025, 2:03:08 AM
يستكشف هذا المقال حلولًا متطورة في مجال تحقق الذكاء الاصطناعي في عام 2025، مع تحليل عميق لستة مشاريع رئيسية: EigenLayer, Hyperbolic, Mira, Atoma, Fortytwo, و Lagrange. تتبنى هذه المبادرات نهجًا تقنيًا متنوعًا—بما في ذلك Proof-of-Sampling (PoSP)، Trusted Execution Environments (TEEs)، وZero-Knowledge Proofs (ZKPs)—لمعالجة تحدي موثوقية إخراج الذكاء الاصطناعي. تقدم كل حلا مزايا فريدة وتناسب حالات الاستخدام المحددة، مما يعزز جماعيًا تطوير البنية التحتية للذكاء الاصطناعي المتمركز.

إعادة توجيه العنوان الأصلي 'AI and Verifiability'

مع تكامل أنظمة الذكاء الاصطناعي بشكل متزايد مع النظم البيئية للبلوكشين، يصبح ضمان قابلية التحقق من نتائج الذكاء الاصطناعي ركيزة أساسية لتعزيز الثقة والشفافية والمساءلة. وهذا أمر حاسم بشكل خاص لتطبيقات التمويل اللامركزي (DeFi) وتطبيقات دليل الشخصية، حيث يمكن أن تؤثر الدقة والموثوقية مباشرة على النتائج المالية وقرارات الحوكمة وهوية المستخدم.

الحالة من أجل الذكاء الاصطناعي القابل للتحقق في الأنظمة اللامركزية

رصد الذكاء الاصطناعي

يضمن أن عمليات اتخاذ القرار شفافة ومفهومة. يحصل أصحاب المصلحة على رؤية حول كيفية استنتاج القرارات - الأمر الحيوي عندما تؤثر القرارات على المعاملات على السلسلة أو حوكمة بمقياس كبير.

تتبع المصدر

يتتبع البيانات والمعلمات والهندسيات النمذجية المستخدمة لإنشاء توقعات الذكاء الاصطناعي. من خلال تحديد مصدر البيانات، يعرف المستخدمون من أين جاءت بيانات التدريب والنماذج التي تم استخدامها، مما يعزز الثقة ويقلل من احتمالية نشر المعلومات الخاطئة.

التحقق من الناتج

يؤكد أن النتائج النهائية للذكاء الاصطناعي دقيقة ولم يتم تغييرها. في سياق اللامركزية، ينطوي هذا في كثير من الأحيان على آليات إثبات (على سبيل المثال، البراهين بدون معرفة، توافق العينات) لضمان أن الحسابات أو الاستنتاجات لم يتم التلاعب بها خارج السلسلة.

التحديات في التحقق من صحة الذكاء الاصطناعي على السلسلة الكتلية

بينما تتفوق سلاسل الكتل في توفير دفاتر الأستاذ غير القابلة للتغيير والثقة الموزعة ، يمكن أن تكون حسابات الذكاء الاصطناعي على السلسلة باهظة الثمن. على سبيل المثال ، قد يستهلك ضرب المصفوفة لعدد صحيح 1000×1000 مليارات الغاز - بما يتجاوز حد غاز الكتلة الحالي ل Ethereum (Zheng et al. ، 2021). وبالتالي ، تعتمد معظم مشاريع الذكاء الاصطناعي على الحساب خارج السلسلة مع التحقق على السلسلة.

ومع ذلك، تقدم النهج خارج السلسلة تحديات جديدة:

احتيال محتمل: بدون التحقق القوي، يمكن للجهات الخبيثة تقديم بيانات غير صحيحة أو معدلة.

نقاط الضعف المركزية: الاعتماد على مهتمين خارج السلسلة أو الخوادم الخاصة يمكن أن يضعف الأخلاق اللامركزية، مما يؤدي إلى الرقابة أو نقاط الفشل الفردية.

لذلك، تهدف الحلول الناشئة إلى الحفاظ على أداء عالٍ مع تضمين التحقق الشبكي أو القائم على العينات، متوازنة بين الكفاءة واللامركزية.

طبقة الايجن

EigenLayer هو بروتوكول لإعادة الرهان يسمح للمحققين في Ethereum بـ "إعادة الرهان" على عملاتهم الرقمية لتأمين خدمات لامركزية إضافية، المعروفة باسم خدمات التحقق النشطة (AVS). بدلاً من الحاجة إلى مجموعة جديدة من المحققين لكل مهمة متخصصة (على سبيل المثال، التحقق من الذكاء الاصطناعي، وعمليات السلسلة العابرة)، يُعيد EigenLayer استخدام شبكة المحققين القوية واللامركزية لـ Ethereum.

يعزز EigenLayer الأمان عن طريق السماح لخدمات التحقق النشطة الجديدة (AVS) بالوصول إلى مجموعة المحققين الحالية في Ethereum. إن هذه المجموعة من المحققين كبيرة بالفعل ورأسمالها جيد، وموزعة جغرافيا، مما يوفر ضمانات تشفيرية قوية دون الحاجة إلى إعادة تشغيل شبكة جديدة من الصفر.

من خلال تمكين إعادة الوضع الغير نشط، تقلل EigenLayer بشكل كبير من التكاليف التشغيلية. لم تعد المشاريع بحاجة لإنشاء وصيانة البيئات الخاصة بها للمحققين، مما يقلل من تكاليف البنية التحتية والحواجز التي تعترض إطلاق خدمات لامركزية جديدة على السلسلة.

بالإضافة إلى ذلك، يقدم النظام مرونة عالية. يمكن لـ AVS تخصيص توافقهم الخاص ومنطق التحقق بينما لا يزالون يرثون الأمان على الطبقة الأساسية لـ Ethereum، مما يجعل EigenLayer أساسًا مثاليًا للتطبيقات اللامركزية القابلة للتوسيع والآمنة والقابلة للتطبيق.

دليل هايبربوليك على عملية العينات (PoSP)

تقدم شركة Hyperbolic Labs Proof of Sampling (PoSP)، بديل فعال وقابل للتوسيع لبراهين zkML التقليدية أو البراهين المتفائلة للتحقق من الذكاء الاصطناعي. يضمن هذا البروتوكول الجديد القائم على العينات أن يثق المستخدمون في نتائج نماذجهم التي يتم تدريبها وتشغيلها على شبكة GPU لدينا. هذا البروتوكول، المعروف باسم Proof of Sampling (PoSP)، هو المعيار الجديد الذهبي للتحقق في مجال الذكاء الاصطناعي.

تم تطويره بواسطة فريق Hyperbolic بالتعاون مع باحثين من جامعة كاليفورنيا بيركلي وجامعة كولومبيا، يستخدم PoSP نظرية الألعاب لتأمين الأنظمة اللامركزية. يقوم بتحقق عينة استراتيجية من النتائج وينفذ عملية تحكيم للعقداء غير الصادقين لتحفيز السلوك الصادق بنسبة 100٪ عبر الشبكة.

يقدم دليل الأدلة العشوائية (PoSP) عدة مزايا رئيسية: فهو يمكن من التحقق الفعّال عن طريق إضافة أقل من 1% من التكلفة الحاسوبية الإضافية، مما يسمح للعقد بالحفاظ على سرعات التشغيل القريبة من الأصل. أمانه القوي يضمن بقاء المشاركين صادقين، حيث تجعل الفحوص العشوائية الغش أمرًا مجازفًا للغاية. من خلال التحفيزات اللعبية النظرية، يخلق PoSP توازن ناش صافي حيث تكون السلوك الصادق دائمًا الخيار العقلاني. وأخيرًا، يعتبر PoSP قابلاً للتوسيع بشكل كبير لخدمات الذكاء الاصطناعي، حيث يمكنه دعم أعباء العمل الضخمة للذكاء الاصطناعي المتمركزة بينما يضمن بقاء عمليات الحوسبة الفعّالة والعمليات الاستدلالية موثوقة وجديرة بالثقة.

التدقيق العشوائي: مجموعة دورية من المحققين (من خلال طبقة Eigen) تقوم بعينات وفحص منتظم للحوسبات الذكية. يمنع هذا التحقق المستمر الغش النظامي.

تحفيز التوازن ناش: السلوك الخبيث غير اقتصادي للمحققين - النتائج غير الصادقة أو غير المتسقة تؤدي إلى عقوبات يمكن تقطيعها.

إن استخدام PoSP يقلل من العبء الأدائي، مما يجعله مناسبًا تمامًا لحالات الاستخدام التي تتطلب استنتاجات AI سريعة ومتكررة.

على عكس حلول الذكاء الاصطناعي اللامركزية الأخرى، عند تشغيل التستدل على شبكة Gate.io اللامركزية، يمكنك أن تكون واثقًا من أنك تتلقى نتيجة صالحة.

من خلال دمج PoSP في EigenLayer، يمكن لخدمات الذكاء الاصطناعي اللامركزية تحقيق إطار آمن ومصغر للثقة يمكنه معالجة عدد متزايد من طلبات الاستدلال دون التضحية باللامركزية أو كفاءة التكلفة.

التحقق عشوائيًا: يتم اختيار المحققين بشكل عشوائي للتحقق من النتائج، مما يضمن نتائج غير متحيزة.

الدعم المتطور لـ AVS: يقلل PoSP من المطالبات الحسابية، مما يتيح لـ EigenLayer تأمين الخدمات على نطاق واسع بكفاءة.

ردع الاحتيال: تجعل العقوبات الصارمة الغش غير مربح، بينما يظل السلوك الصادق الاستراتيجية الأمثل.

البروتوكول EigenLayer بالاقتران مع بروتوكول Proof of Sampling الخاص بنا يحدث تحولًا جذريًا في كيفية تأمين الخدمات اللامركزية. نحن الآن نقدم بنية تحتية موثوقة وقابلة للتوسيع ومقاومة للاحتيال بكلفة تشكيلية قليلة. - جاسبر زانغ، الرئيس التنفيذي لشركة هايبربوليك


اقرأ الورقة الكاملة حول PoSP هنا

ميرا

تهدف شبكة Mira إلى معالجة تحدي أساسي في مجال الذكاء الاصطناعي، وهو تميل النماذج اللغوية الكبيرة (LLMs) إلى توليد معلومات غير صحيحة. صممت لتقليل الهلوسة وزيادة دقة الإخراج دون إشراف بشري، تستغل Mira شبكة لامركزية من العقد المستقلين للتحقق من إخراجات الذكاء الاصطناعي بشكل موثوق به بشكل متوازي.

هناك ثلاث خطوات في هندسة ميرا

تثنيم

عملية تقسيم الإخراجات إلى 'مطالب' أبسط.

التحقق الموزع

تم التحقق من المطالبات أعلاه من قبل شبكة من العقدة المدققة التي تعمل بنماذج متخصصة للتحقق من المطالبات. يتم إجراء التحقق بتنسيق سؤال متعدد الخيارات. يتم تقسيم المطالبات للتحقق عشوائيًا عبر المدققين، مما يجعل الاتفاق صعباً.

دليل التحقق

آلية توافقية هجينة تجمع بين دليل العمل (PoW) ودليل الحصة (PoS) تُستخدم. يحتاج كل محقق إلى رهن للمشاركة في التحقق. تضمن هذه الطريقة أن المحققين يقومون فعليًا بالاستدلال، بدلاً من المجرد الشهادة. سيتم تقليص رهن المحقق إذا تبين أن إخراجه يتخلف باستمرار عن التوافق.

بمجرد التوصل إلى اتفاق من قبل الشبكة بشأن الناتج، يتم إنشاء شهادة تشفيرية وكتابتها إلى سلسلة الكتل، مما يخلق سجلاً لا يمكن تغييره للحقائق المتحققة.


المصدر:الورقة البيضاء لشبكة ميرا

الخصوصية هي جانب أساسي في تصميم Mira. نظرًا لأن الادعاءات مجزأة بشكل عشوائي، فإنه ليس من الممكن لمشغل العقدة الفردية إعادة بناء الإخراج الأصلي. بالإضافة إلى ذلك، يتم الاحتفاظ بالردود على التحقق من قبل المحققين المستقلين بشكل خاص قبل التوافق، مما يمنع تسرب المعلومات.

ميرا تبحث عن التحقق من محتوى معقد بشكل متزايد، والذي يتضمن رموزًا، بيانات منظمة، ومحتوى وسائط متعددة. في المستقبل، ستقوم ميرا أيضًا بإعادة بناء المحتوى غير الصالح عند اكتشاف محتوى غير صالح، مما يحقق دقة وسرعة في إخراج الذكاء الاصطناعي. في نهاية المطاف، ستكون شبكة ميرا قادرة على تراكم حقائق آمنة اقتصاديًا، مما يخلق قاعدة بيانات للتحقق من الحقائق.

مع زيادة استخدام الشبكة - توليد رسوم أعلى - جوائز التحقق الأفضل - جذب المزيد من مشغلي العقد - تحسين الدقة والتكلفة والتأخر في التحقق من الإجابات

أتوما

أتوما شبكة تنفيذ ذكاء اصطناعي لامركزية وخاصة وقابلة للتحقق، مباشرة على شبكة سوي الرئيسية. يتكون الهندسة المعمارية الأساسية من ثلاثة عناصر: (أ) طبقة الحساب و؛ (ب) طبقة التحقق و؛ (ج) طبقة الخصوصية.

طبقة الحوسبة

شبكة عالمية من العقد التنفيذية التي تعالج طلبات الاستدلال. يتوفر عدد كبير من العقد بالتعاون مع مراكز البيانات المختلفة، وأجهزة الحواف مثل أجهزة الأفراد الرقمية.

مع Atoma، تتوفر أوزان النموذج محليًا على العقد، مما يزيد من سرعة الاستدلال عند استلام طلب. بالإضافة إلى ذلك، يتم توجيه الطلبات المستلمة إلى العقد الأكثر ملاءمة، مطابقة المهمة مع الأداء والتكلفة المقابلين.

يتمحور أتوما حول تحسين كفاءة تشغيل الاستدلال من خلال مجموعة من الميزات، بما في ذلك الانتباه السريع والانتباه المقسم، وكلاهما يساهم في تقليل العبء الحسابي.

طبقة التحقق

يتم التحقق من سلامة الحسابات من خلال التوافق على العينات. هذه عملية حيث يتم اختيار العقد بشكل عشوائي لتشغيل الاستنتاج، وتوليد تجزئة تشفيرية للناتج. إذا كانت جميع التجزئات التي تم إنشاؤها بواسطة مجموعة العقد المختارة تتطابق، يتم التحقق من الناتج الناتج. في حالة وجود اختلاف بين التجزئات المولدة، ستبحث الشبكة عن العقد غير الصادق، الذي سيتم معاقبته من خلال تقليص حصته.

فرصة لهجوم خبيث للتحكم في نصف أو أكثر من طاقة وحدة معالجة الرسومات للشبكة بأكملها للعب النظام منخفضة جدًا، ويصبح أمرًا أصعب مع توسيع شبكة العقد. يمكن تحديد عدد العقد المختارة للعينة بمرونة، حيث يمكن اختيار مجموعة أكبر من العقد للمهام ذات المخاطر العالية.

طبقة الخصوصية

يولي Atoma اهتمامًا خاصًا بالحفاظ على بيانات المستخدمين آمنة وخاصة، من خلال تشغيل العمليات الحسابية في بيئة تنفيذ موثوقة (TEE). تتم تشفير البيانات المدخلة من قبل المستخدمين، ولا يتم فك تشفيرها إلا في TEE. يمنع ذلك أي أطراف أخرى على البلوكشين من عرض بيانات المستخدم. بمجرد تشغيل الاستدلال، يتم تشفير الناتج قبل إعادته إلى المستخدمين.

على الرغم من أن الحل أعلاه آمن، إلا أنه يجدي بذكر أنه يأتي بتنازل فيما يتعلق بالعبء الحسابي الأعلى، مما قد يؤدي إلى رسوم أعلى للمستخدمين.

شبكة Aizel

مماثل لشبكة Atoma أعلاه، تختار شبكة Aizel نهجاً يعتمد على TEE. الفارق هنا هو أن Aizel قامت بدمج الحوسبة متعددة الأطراف (MPC) في سير عملها، حيث يتم توجيه مهام الاستدلال إلى TEEs مختلفة. يهدف هذا إلى تحقيق تفريغ الشبكة، مضمناً أن الاستدلال ما زال ممكناً حتى عندما يتم اختراق TEE واحد أو تعطله.

أربعة وأربعون

فورتيتو تدعم نموذج "الاستنتاج السريع" المبني حول النماذج الصغيرة والمتخصصة (SLMs). بدلاً من الاعتماد على AI الضخمة الضخمة، تنسق الشبكة بين عدة نماذج تديرها المساهمين، والتي تم ضبطها بشكل جيد للمهام أو المجالات الخاصة. تعمل هذه النماذج بشكل متوازي - مع التحقق والتنقيح والتدقيق المتبادل لنتائج بعضها البعض - لتقديم استنتاجات أكثر دقة وموثوقية.

تتعامل هذه الهيكلة اللامركزية مع المشاكل التي غالبًا ما تواجه النماذج الكبيرة واحدة، مثل العراقيل في التدريب، ومتطلبات الأجهزة المكلفة، ونقاط الفشل الواحدة. من خلال توزيع الذكاء عبر العديد من النماذج الصغيرة والمساهمين، يضمن Fortytwo كل من التوسعة ومقاومة الأخطاء.

1. النماذج المتخصصة الصغيرة (SLMs)

تهيئة مبنية على النية أولاً

قبل بدء أي مهمة، يحدد المساهمون الهدف والميزانية والقيود. يوفق هذا النهج كل رؤية للإدارة الشاملة - سواء كان ذلك تلخيص النصوص أو تحليل الشفرات أو أي استنتاج متخصص آخر.

تخصصات المساهم المحددة

يقوم مشغلو العقد الفرديين بإحضار نماذجهم المضبوطة بدقة إلى الشبكة. يحتفظون بالتحكم الكامل في الأوزان والانحيازات والبيانات الخاصة، مما يضمن الخصوصية لكل مالك نموذج. يمكن لهذه النماذج المتخصصة التركيز على مجالات مثل تحليل المشاعر، تحليل النصوص القانونية، أو حتى إنشاء رموز محددة لمجال معين.

الخصوصية للأوزان والقياسات

جانب حرج في فورتيتو هو أن المساهمين ليس عليهم مشاركة التفاصيل الأساسية للنموذج الخام. يتم مشاركة نتائج الاستدلال فقط مع الشبكة. يحافظ هذا التصميم على الملكية الفكرية لكل مالك نموذج ويساعد في التخفيف من المخاطر المرتبطة بتعريض البيانات الحساسة.

2. تفسير السرب وتقييم الأقران

تعاون متعدد SLM

يتم تقسيم المهام بين 7-8 (أو أكثر) SLMs متخصصة، تقدم كل منها وجهة نظر مجال فريدة. من خلال تقسيم المهام الكبيرة إلى مشاكل فرعية أصغر، تستفيد الشبكة بشكل أكثر فعالية من قوى كل نموذج.

مزيج مسطح من الخبراء (MoE)

بدلاً من تكديس الخبراء الفرعيين في طبقات متعددة، يستخدم Fortytwo نهج "MoE" المسطح، حيث يعالج كل نموذج البيانات بشكل مستقل. يمكن أن يكون هذا التصميم فعالًا بشكل خاص لأنه يتجنب التعقيد من البوابات الهرمية، مما يتيح للخبراء التركيز فقط على مهمتهم الفرعية المعنية.

الكشف الجماعي عن الأخطاء

يلعب التقييم بالنظرة النقدية دورًا حاسمًا في الحفاظ على دقة الاستدلال. عندما تختلف النماذج، تراقب الشبكة الاختلافات لتحليل أعمق. هذه العملية العابرة للتحقق تعتبر حاسمة لاكتشاف الأخطاء في وقت مبكر وضمان الإخراج عالي الجودة.

3. منخفضة التأخير والحوسبة الموزعة

معدات الأجهزة عالية الجودة للاستهلاك

يتم تحسين Fortytwo للأجهزة مثل Apple Silicon و RTX GPUs، مما يقلل من حواجز التكلفة ويوسع قاعدة المشغلين المحتملين. يقوم هذا النهج بتمكين الذكاء الاصطناعي بشكل ديمقراطي من خلال تمكين المزيد من الأفراد - وليس فقط مراكز البيانات الكبيرة - من المشاركة.

تجميع الإنتشار

يختار العديد من مشغلي العقد السحابية (مثل AWS) أو المجموعات المستضافة ذاتيًا لتقليل التأخير. تصبح المجموعات المنسقة بشكل جيد قيمة خاصة في السيناريوهات التي تتطلب سرعة الاستجابة حيث يمكن أن تؤثر التأخيرات الصغيرة حتى بشكل كبير على تجربة المستخدم.

4. مجتمع مشغل العقدة

زيادة المشاركة

الآلاف من المشاركين أبدوا اهتمامهم بتشغيل عقد الاستنتاج، مما أدى إلى إنشاء شبكة متنوعة وموزعة. توسيع هذا يجلب المزيد من الموارد الحسابية عبر الإنترنت، مما يزيد من قدرة النقل والصمود.

مساهمات نموذج ويكيبيديا مشابه

على غرار كيف يتعاون محررو ويكيبيديا على المقالات ، يمكن لكل مشغل للعقد تحسين أو ضبط النماذج المتخصصة ومشاركة تقنيات الاستدلال المحسنة. يعزز هذا الصيانة والتنقيح الجماعي الابتكار المستمر ويعزز الذكاء الشامل للشبكة.

لاغرانج

تقف Lagrange على الحافة الحديثة لاستخدام تقنية Zero-Knowledge (ZK) لجلب قابلية التحقق إلى الذكاء الاصطناعي. شعارهم - 'مستقبل الذكاء الاصطناعي هو ZK، ومستقبل الإنسانية هو Lagrange' - يؤكد على الاعتقاد بأنه، مع تطور الذكاء الاصطناعي نحو الذكاء الفائق، يجب علينا ضمان شفافية وثقة في كيفية عمل هذه النماذج.

DeepProve: الأداء العالي zkML

  • دليل النموذج الصحيح: يؤكد DeepProve بشكل تشفيري أن النموذج الذكاء الاصطناعي الصحيح تم استخدامه للاستدلال المعطى، دون ترك مجال للتلاعب أو التحريف.
  • دليل الإخراج الصحيح: يضمن أيضًا أن الإخراج يتماشى مع ما سينتجه النموذج بصورة حقيقية، مما يمنع الجهات الخبيثة من حقن نتائج مزيفة.
  • تحسينات في الأداء: تفتخر بجيل برهان أسرع بمعدل 158 مرة وتحقق أسرع بمعدل 671 مرة من العديد من حلول zkML الحالية، مما يجعل النشر على نطاق واسع ممكنًا.

من خلال إزالة تفاعلات الذكاء الاصطناعي "الصندوق الأسود"، يضمن Lagrange أن المستخدمين لا يحتاجون إلى الثقة العمياء في الذكاء الاصطناعي. في البيئات اللامركزية حيث تكون تقليل الثقة أمرًا أساسيًا، يصبح التأكد التشفيري حول سلامة النموذج وصحة الإخراج أمرًا أساسيًا.

وعلاوة على ذلك، تعمل Inference Labs كذراع متخصص في التطبيقات التابعة لـ Lagrange، رابطة بين البحوث والنشرات العملية. بينما يركز Lagrange على التصميم التشفيري الأساسي وتصميم الدوائر، تضمن Inference Labs أن تكون هذه الابتكارات جاهزة للإنتاج.

تكاملات العالم الحقيقي

يدمج zkML في خطوط الأنابيب الحالية لتعلم الآلة، مع التركيز على قطاعات مثل DeFi والألعاب والرعاية الصحية وأصالة سلسلة التوريد.

يتعاون مع قادة الصناعة لاختبار ميزات Lagrange الجديدة تحت ضغوط العالم الحقيقي (على سبيل المثال، عدد معلمات كبيرة، متطلبات تأخير صارمة).

EZKL

EZKL هو نظام مفتوح المصدر لإنشاء الذكاء الاصطناعي المُحقق والتحليلات باستخدام دلائل الصفر المعرفة (ZKPs). يتيح للمطورين إثبات أن نماذج الذكاء الاصطناعي تم تنفيذها بشكل صحيح دون الكشف عن البيانات الحساسة أو تفاصيل النموذج الخاصة. مستوحى من أنظمة مثل Face ID لشركة Apple، يوسع EZKL الأمان الخالي من المساس للنماذج إلى أي نموذج على أي جهاز - دون الاعتماد على أجهزة متخصصة مثل TEEs.

بنية دليل الأدلة الصفرية

تقوم EZKL بتأمين دورة حياة ZKP بأكملها — من تجميع النموذج إلى إنشاء البرهان والتحقق. يقدم المستخدمون نماذج الذكاء الاصطناعي بتنسيق ONNX، الذي تقوم EZKL بتجميعه إلى دوائر صديقة لـ ZK باستخدام نسخة محسنة من نظام إثبات Halo2. ثم يقوم النظام بإنشاء بروفات تشفيرية لتنفيذ النموذج الصحيح يمكن التحقق منها على أي جهاز.

هذه العملية التشفيرية تمكّن الثقة اللامركزية في تطبيقات الذكاء الاصطناعي ذات المخاطر العالية، مثل اتخاذ القرارات المالية، والمصادقة البيومترية، والتحقق من الاستنتاج في الوقت الحقيقي.

الشهادات التعاونية (Cosnarks)

أدخلت EZKL مؤخرًا SNARKs التعاونية (cosnarks)، مما يتيح لطرفين - مثل مالك النموذج ومالك البيانات - توليد دليل ZK مشترك دون كشف أي من أصولهم السرية. على عكس أنظمة إثبات MPC المفوضة، تقضي cosnarks على الافتراضات الثقة الإضافية عن طريق تقييد الحساب إلى الأطراف المعنية فقط.

هذا التقدم يمكن استخدامات مثل التصنيف الائتماني الخاص، استراتيجيات التداول السرية، والتحقق من الهوية بدون معرفة المعلومات. تستفيد التنفيذ من مكتبة Renegade's MPC المحسنة لـ 2PC وهي مدمجة مباشرة في Lilith، طبقة تنظيم السحابة لـ EZKL.

الدعم النموذجي والمرونة

يدعم EZKL مجموعة واسعة من البنيات الأساسية للذكاء الاصطناعي/تعلم الآلة، بما في ذلك CNNs، RNNs، محولات نمط GPT، أشجار القرار ونماذج الانتشار الثابتة. يمكن تحويل أي نموذج متوافق مع معيار ONNX إلى دائرة ZK.

من خلال تجريد منطق النموذج إلى دوائر رياضية، يتيح EZKL التسلسل الزمني الذي يحفظ الخصوصية عبر الصناعات مثل التمويل والرعاية الصحية والهوية. تدعم جميع منطق الشجرة وآليات الانتباه وعمليات المصفوفة على نطاق واسع ضمن الإطار المعتمد على Halo2.

تجربة المطور

تولي EZKL أولوية للوصول وتجاهل التعقيد. لا يحتاج المطورون إلى معرفة تشفير مسبقة، أو تجربة تصميم الدوائر، أو مهارات متقدمة في DevOps. يقدم النظام ربطًا في CLI، Python، JavaScript، و Rust - مما يجعل من السهل تضمين تدفقات العمل ZK في أنابيب ML الحالية.

إنشاء قيود تلقائي، أوامر دليل مبسطة، ودمج سلس مع أدوات التنظيم تسمح للمطورين بالتركيز فقط على منطق التطبيق.

بروتوكول أورا

ORA هو بروتوكول أوراكل غير مرتبط بالسلاسل يربط بين الذكاء الاصطناعي والبلوكشين، مما يمكن المطورين من ببناء تطبيقات متمركزة بالكامل على الثقة، مدعومة بتعلم آلي يمكن التحقق منه. من خلال بنيتها التحتية، يجلب ORA استنتاج الذكاء الاصطناعي، وإنتاج المحتوى، والحساب المعقد مباشرة على السلسلة، مما يقضي على الاعتماد على واجهات برمجة تطبيقات خارج السلسلة أو الحساب المركزي. الابتكار الأساسي فيها يكمن في دمج تنفيذ الذكاء الاصطناعي مع الأدلة التشفيرية، مما يخلق خطوط أنابيب للذكاء الاصطناعي قابلة للبرمجة مع قابلية التحقق المضمنة.

البروتوكول يسمح لأي مطور ببناء تطبيقات حيث يمكن تضمين الإخراجات الذكاء الاصطناعي - سواء كانت رد لنموذج لغوي، صورة مولدة، أو بيان مدقق - داخل العقود الذكية مع ضمانات الفحص والصحة.

أونشين الذكاء الاصطناعي اوراكل (OAO)

بوابة الذكاء الصناعي Onchain (OAO) هي المنتج الرئيسي لـ ORA. يمكنها تمكين العقود الذكية من طلب واستلام والاعتماد على نتائج استنتاجات الذكاء الاصطناعي التي تعمل خارج السلسلة، ولكن تم التحقق منها وتسويتها على السلسلة. يمكن للمطورين استدعاء وظيفة استنتاج الذكاء الاصطناعي من خلال شبكة ORA opML. يتم إرجاع النتيجة من خلال وظيفة ارتجاعية في عقد المستخدم، مما يجعل التطبيقات على السلسلة الذكاء الاصطناعي والمستقلة بالكامل.

تدعم OAO عدة نماذج كبيرة - مثل LLaMA3، والانتشار الثابت، والدردشة/النقاط المفتوحة - تعمل عبر البنية التحتية التي يمكن التحقق منها. يمكن للمطورين دمج OAO على أي سلسلة متوافقة مع EVM، وتسمح العقود الذكية المُبنية مسبقًا مثل Prompt وSimplePrompt بالتنميط السريع مع مراعاة تحسين الغاز.

سير عمل opML والتحقق من الصحة

نظام التعلم الآلي المتفائل (opML) الخاص بـ ORA يشغل طبقة التحقق الخاصة به. عندما يتم بدء وظيفة الاستدلال، يتم نشر النتيجة على السلسلة بفترة تحدي. خلال هذا الوقت، يمكن لمحققي opML التحقق من النتيجة، وإذا كانت غير صحيحة، يمكنهم تقديم دليل على الاحتيال. تحل النتيجة الصحيحة محل تلك التي تم تحديها. يضمن هذا أن النواتج الذكية المضمنة في العقود الذكية يمكن التحقق منها، ومقاومة للرقابة، واقتصادياً آمنة.

هذا النهج المتفائل يوازن الأداء واللامركزية. على عكس zkML، الذي قد يتطلب حسابًا مكثفًا في البداية، يجعل opML من غير المنطقي اقتصاديًا للسلوك غير الصادق أن ينجح - خاصة مع توسيع شبكة المحققين.

تكامل المطور

يتفاعل المطورون مع OAO من خلال واجهة معممة وموديلية. لدمج الذكاء الاصطناعي في عقد ذكي، يرث المطور واجهة استقبال AIOracleCallbackReceiver وينفذ وظيفة aiOracleCallback() لاستقبال النتائج. يمكنهم بعد ذلك استدعاء المكرر لبدء الاستدلال باستخدام معرفات النموذج وبيانات الإدخال وعنوان الاستدعاء الارجاعي.

يتم تنفيذ أربع نماذج حاليًا على Arbitrum، ويمكن أن تكون عملية الدمج بسيطة مثل استخدام قوالب ORA’s Prompt. تدعم البنية التحتية أيضًا حالات استخدام أكثر تقدمًا من خلال تنظيم الحوسبة التي تعمل بنظام Lilith، مما يتيح تسريع الاستنتاج وأعباء العمل عالية الإنتاجية.

عرض النموذج الأولي (IMO)

أنشأت ORA إطار العرض النموذجي الأولي (IMO) لتمييز ملكية نماذج الذكاء الاصطناعي والإيرادات والحوكمة. تقوم ال IMOs بترميز نماذج الذكاء الاصطناعي من خلال هيكل ذو رمزين:

  • ERC-7007: يُربط المراسيم المختبرة للذكاء الاصطناعي (على سبيل المثال، الصور، التنبؤات) مباشرة على السلسلة.
  • ERC-7641: يوزع الإيرادات من استخدام النموذج على حاملي الرموز، مما يخلق نظم ذكاء اصطناعي محفزة ومدارة من قبل المجتمع متوافقة مع الحوافز.

من خلال تمكين الحوكمة وتحقيق الربح من خلال الرموز التمييزية، تمويل IMOs تطوير المصادر المفتوحة مع ضمان استمرارية بنية التحتية للذكاء الاصطناعي على أن تظل غير قابلة للرقابة، ويمكن الوصول إليها على نطاق عالمي، وتملك بشكل جماعي.

الاستنتاج

مع استمرار نمو الرأس المالي الاصطناعي، يصبح الحاجة إلى النواتج الاصطناعية التي يمكن التحقق منها أمرًا حرجًا بشكل متزايد. كما هو واضح من ذلك، هناك نهج متنوعة لضمان عدم الثقة في الحلول الاصطناعية المركزية، بما في ذلك بيئات التنفيذ الموثوقة (TEEs)، ودليل العينات (PoSP)، وتعلم الآلة بدون معرفة (ZKML)، وتعلم الآلة المتفائل (OPML).

تختلف النهج في جوانب مختلفة، وتحديدا التكلفة والوقت المستغرق ومستوى ضمانات الأمان. من المحتمل أن تُستخدم جميع الحلول المذكورة أعلاه بطريقة ما، تبعا لحالات الاستخدام الخاصة.

إخلاء المسؤولية:

  1. هذه المقالة مأخوذة من [Gateهايبربوليك - e/acc]. توجيه العنوان الأصلي 'الذكاء الاصطناعي والقابلية للتحقق'. جميع حقوق النشر تنتمي إلى الكاتب الأصلي [هايبربوليك - e/acc]. إذا كانت هناك اعتراضات على هذا النقل، يرجى الاتصال بالبوابة التعلمالفريق، وسيتولون على التعامل معها على الفور.
  2. إخلاء المسؤولية عن المسؤولية: الآراء والآراء المعبر عنها في هذه المقالة هي فقط تلك المؤلف ولا تشكل أي نصيحة استثمارية.
  3. يقوم فريق Gate Learn بترجمة المقالات إلى لغات أخرى. يُمنع نسخ أو توزيع أو نسخ المقالات المترجمة ما لم يذكر.
Начните торговать сейчас
Зарегистрируйтесь сейчас и получите ваучер на
$100
!