يمثل ظهور سلاسل الكتل العامة تقدما عميقا في تاريخ علوم الكمبيوتر ، في حين أن تطوير الذكاء الاصطناعي له تأثير كبير على عالمنا. تقدم تقنية Blockchain قوالب جديدة لتسوية المعاملات وتخزين البيانات وتصميم النظام ، بينما يمثل الذكاء الاصطناعي ثورة في الحوسبة والتحليل وتقديم المحتوى. تطلق الابتكارات في هذه الصناعات العنان لحالات استخدام جديدة يمكن أن تسرع من اعتماد كلا القطاعين في السنوات القادمة. يبحث هذا التقرير في التكامل المستمر للعملات المشفرة والذكاء الاصطناعي ، مع التركيز على حالات الاستخدام الجديدة التي تهدف إلى سد الفجوة بين الاثنين والاستفادة من نقاط قوتهما. يبحث على وجه التحديد في المشاريع التي تطور بروتوكولات الحوسبة اللامركزية ، والبنية التحتية للتعلم الآلي بدون معرفة (zkML) ، ووكلاء الذكاء الاصطناعي.
تقدم Cryptocurrency طبقة تسوية غير مصرح بها وغير موثوقة وقابلة للتركيب الذكاء الاصطناعي ، وفتح حالات الاستخدام مثل سهولة الوصول إلى الأجهزة من خلال أنظمة الحوسبة اللامركزية ، وبناء وكلاء الذكاء الاصطناعي قادرين على تنفيذ المهام المعقدة التي تتطلب تبادل القيمة ، وتطوير حلول الهوية والمصدر لمواجهة هجمات Sybil والتزييف العميق. يجلب الذكاء الاصطناعي إلى العملة المشفرة العديد من الفوائد نفسها التي شوهدت في Web 2.0 ، بما في ذلك تجارب المستخدم والمطور المحسنة من خلال نماذج اللغات الكبيرة مثل ChatGPT و Copilot ، وتحسين الوظائف وإمكانات الأتمتة بشكل كبير للعقود الذكية. توفر Blockchain بيئة شفافة وغنية بالبيانات اللازمة الذكاء الاصطناعي ، على الرغم من أن قوة الحوسبة المحدودة ل blockchain تشكل عائقا رئيسيا أمام التكامل المباشر لنماذج الذكاء الاصطناعي.
تدفع التجارب والتبني النهائي في التقاطع بين العملات الرقمية والذكاء الاصطناعي بنفس القوى التي تدفع أكثر حالات الاستخدام واعدة للعملات الرقمية: الوصول إلى طبقة تنسيق غير مرخصة وغير ثقة، تيسير نقل قيمة أفضل. نظرًا للإمكانات الهائلة، يحتاج أصحاب المصلحة في هذا المجال إلى فهم الطرق الأساسية التي تتقاطع فيها هذه التكنولوجيات.
الذكاء الاصطناعي هو استخدام الحساب والآلات لتقليد قدرة البشر على التفكير وحل المشكلات.
الشبكات العصبية هي طريقة لتدريب نماذج الذكاء الاصطناعي. تقوم بتشغيل المدخلات من خلال طبقات خوارزمية م diskrete، مصقولة حتى يتم إنتاج الإخراج المرغوب. تتكون الشبكات العصبية من معادلات تحتوي على أوزان يمكن تعديلها لتغيير الإخراج. قد تتطلب كمية كبيرة من البيانات والحسابات للتدريب لضمان إخراج دقيق. هذه هي واحدة من أكثر الطرق شيوعًا لتطوير نماذج الذكاء الاصطناعي (على سبيل المثال، يعتمد ChatGPT على عملية الشبكة العصبية استنادًا إلى Transformers).
التدريب هو عملية تطوير الشبكات العصبية ونماذج الذكاء الاصطناعي الأخرى. يتطلب كمية كبيرة من البيانات لتدريب النماذج لتفسير المدخلات بشكل صحيح وإنتاج نتائج دقيقة. خلال التدريب، يتم تعديل أوزان معادلة النموذج بشكل مستمر حتى يتم إنتاج مخرجات مرضية. قد يكون التدريب مكلفًا للغاية. على سبيل المثال، يستخدم ChatGPT عشرات الآلاف من وحدات معالجة الرسومات الخاصة به لمعالجة البيانات. الفِرَق التي تمتلك موارد أقل في كثير من الأحيان تعتمد على مزودي الحوسبة المتخصصة، مثل خدمات أمازون ويب، وAzure، ومزودي غوغل كلاود.
الاستدلال هو الاستخدام الفعلي لنماذج الذكاء الاصطناعي للحصول على النواتج أو النتائج (على سبيل المثال، باستخدام ChatGPT لإنشاء مخطط لورقة بحثية حول تقاطع العملات الرقمية والذكاء الاصطناعي). يُستخدم الاستدلال طوال عملية التدريب وفي المنتج النهائي. نظرًا لتكاليف الحساب، حتى بعد اكتمال التدريب، يمكن أن تكون تكاليف تشغيلها مرتفعة، على الرغم من أن كثافتها الحسابية أقل من التدريب.
تسمح الأدلة بعدم المعرفة (ZKP) بالتحقق من البيانات دون الكشف عن المعلومات الأساسية. يعد هذا مفيدًا في عالم العملات الرقمية لسببين رئيسيين: 1) الخصوصية و2) التوسيع. بالنسبة للخصوصية، يتيح للمستخدمين التعامل دون الكشف عن معلومات حساسة (على سبيل المثال، كمية ETH الموجودة في محفظة). أما بالنسبة للتوسيع، فإنه يسمح بإثبات الحسابات خارج السلسلة الرئيسية بسرعة أكبر من إعادة تنفيذ الحسابات. وهذا يتيح لسلاسل الكتل والتطبيقات تشغيل الحسابات بتكلفة أقل خارج السلسلة الرئيسية ثم التحقق من صحتها على السلسلة الرئيسية. للمزيد من المعلومات حول عدم المعرفة ودورها في محركات الأخلاق الافتراضية للإيثيريوم، انظر تقرير كريستين كيم حول zkEVMs: مستقبل قابلية توسيع الإيثيريوم.
المشاريع التي تدمج الذكاء الاصطناعي والعملات الرقمية ما زالت تبني البنية التحتية اللازمة لدعم تفاعلات الذكاء الاصطناعي على سلسلة الكتل بمقياس كبير.
تظهر أسواق الحوسبة اللامركزية لتوفير الأجهزة الفيزيائية الضخمة اللازمة لتدريب والاستنتاج من النماذج الذكية الصناعية، في المقام الأول على شكل وحدات المعالجة الرسومية (GPUs). تربط هذه الأسواق ذات الجانبين بين الأشخاص الذين يؤجرون والذين يسعون لاستئجار الحوسبة، مما يسهل نقل القيمة والتحقق من الحسابات. ضمن الحوسبة اللامركزية، تظهر عدة فئات فرعية تقدم وظائف إضافية. بالإضافة إلى الأسواق ثنائية الأطراف، تستعرض هذه التقرير أيضًا مزودي تدريب التعلم الآلي الذين يقدمون تدريبًا يمكن التحقق منه وضبطًا دقيقًا للنواتج، بالإضافة إلى المشاريع المخصصة لربط الحسابات وإنشاء النماذج لتمكين الذكاء الاصطناعي، والمعروفة في كثير من الأحيان بشبكات الحوافز الذكية.
zkML هي مجال انطلاق ناشئ للمشاريع التي تهدف إلى توفير نتائج نموذج قابلة للتحقق على السلسلة بشكل اقتصادي وفي الوقت المناسب. تمكن هذه المشاريع بشكل رئيسي التطبيقات من التعامل مع طلبات الحوسبة الثقيلة خارج السلسلة، ثم نشر النتائج القابلة للتحقق على السلسلة، مثبتة بأن عبء العمل خارج السلسلة كان كاملاً ودقيقاً. zkML مكلفة وتأخذ وقتاً حالياً ولكنها تُستخدم بشكل متزايد كحلاً. وهذا يظهر في الزيادة المتزايدة في عدد التكاملات بين مقدمي zkML وتطبيقات DeFi/الألعاب التي تتطلع إلى استغلال نماذج الذكاء الاصطناعي.
العرض الوفير للحساب والقدرة على التحقق من الحساب على السلسلة يفتح الباب أمام وكلاء الذكاء الاصطناعي على السلسلة. الوكلاء هم نماذج مدربة قادرة على تنفيذ الطلبات نيابة عن المستخدمين. تقدم الوكلاء الفرصة لتعزيز تجربة السلسلة، مما يتيح للمستخدمين تنفيذ المعاملات المعقدة ببساطة من خلال التحدث مع روبوت دردشة. ومع ذلك، حتى الآن، مشاريع الوكلاء ما زالت تركز على تطوير البنية التحتية والأدوات لنشر سهل وسريع.
يتطلب الذكاء الاصطناعي حسابا مكثفا لتدريب النماذج وتشغيل الاستدلال. على مدى العقد الماضي ، حيث أصبحت النماذج معقدة بشكل متزايد ، نما الطلب على الحوسبة بشكل كبير. على سبيل المثال ، لاحظت OpenAI أنه من عام 2012 إلى عام 2018 ، تضاعف الطلب الحسابي على نماذجها كل عامين ، وتحول إلى الضعف كل ثلاثة أشهر ونصف. أدى ذلك إلى زيادة الطلب على وحدات معالجة الرسومات ، حتى أن بعض عمال مناجم العملات المشفرة أعادوا استخدام وحدات معالجة الرسومات الخاصة بهم لتوفير خدمات الحوسبة السحابية. مع اشتداد المنافسة على الوصول الحسابي وارتفاع التكاليف ، تستفيد بعض المشاريع من تقنية التشفير لتقديم حلول الحوسبة اللامركزية. إنها توفر الحوسبة عند الطلب بأسعار تنافسية ، مما يمكن الفرق من تدريب النماذج وتشغيلها بتكلفة معقولة. في بعض الحالات ، قد تنطوي المقايضات على الأداء والأمن.
يعد الطلب على وحدات معالجة الرسومات الحديثة (على سبيل المثال ، تلك التي تنتجها Nvidia) كبيرا. في سبتمبر ، استحوذت Tether على حصة في شركة تعدين البيتكوين الألمانية Northern Data ، حيث ورد أنها أنفقت 420 مليون دولار لشراء 10000 وحدة معالجة رسومات H100 (واحدة من أكثر وحدات معالجة الرسومات تقدما للتدريب الذكاء الاصطناعي). يمكن أن يكون وقت الانتظار للحصول على أجهزة من الدرجة الأولى ستة أشهر على الأقل ، إن لم يكن أطول في كثير من الحالات. والأسوأ من ذلك ، غالبا ما يطلب من الشركات توقيع عقود طويلة الأجل لتأمين أحجام حسابية قد لا تستخدمها حتى. يمكن أن يؤدي ذلك إلى مواقف تتوفر فيها الموارد الحسابية ولكن لا يمكن الوصول إليها في السوق. تساعد أنظمة الحوسبة اللامركزية في معالجة أوجه القصور في السوق هذه من خلال إنشاء سوق ثانوية حيث يمكن لمالكي الحوسبة تأجير سعتهم الزائدة على الفور عند الإخطار ، وبالتالي إطلاق إمدادات جديدة.
إلى جانب التسعير التنافسي والوصول، فإن القيمة الأساسية المقترحة للحوسبة اللامركزية هي مقاومة الرقابة. يسيطر تطوير الذكاء الاصطناعي الحديث على يد الشركات التكنولوجية الكبيرة ذات القدرات الحسابية والوصول إلى البيانات دون منافسة متفوقة. وكانت أولى القضايا الرئيسية التي تم التركيز عليها في تقرير السنوي لفهرس الذكاء الاصطناعي لعام 2023 هي تزايد تفوق الصناعة على الأكاديمية في تطوير نماذج الذكاء الاصطناعي، مما يركز السيطرة في أيدي قادة تكنولوجيين قلة. وهذا يثير مخاوف حول إمكانية استخدامهم للتأثير بشكل كبير في تحديد القواعد والقيم التي تستند إليها نماذج الذكاء الاصطناعي، خاصة بعد دفع هذه الشركات التكنولوجية لتشديد اللوائح لتقييد تطوير الذكاء الاصطناعي الذي لا يمكن السيطرة عليه.
ظهرت عدة نماذج من الحوسبة اللامركزية في السنوات الأخيرة، كل منها لديه تركيز وتنازلاته الخاصة.
بشكل عام ، تعد مشاريع مثل Akash و io.net و iExec و Cudos تطبيقات للحوسبة اللامركزية ، حيث تقدم ما وراء البيانات والحلول الحسابية العامة ، والوصول إلى الحوسبة المتخصصة للتدريب الذكاء الاصطناعي والاستدلال. تبرز Akash باعتبارها منصة "السحابة الفائقة" الوحيدة مفتوحة المصدر بالكامل ، والتي تستخدم Cosmos SDK لشبكة إثبات الحصة. AKT ، رمز Akash الأصلي ، بمثابة طريقة دفع لتأمين الشبكة وتحفيز المشاركة. تم إطلاق شبكة Akash الرئيسية في عام 2020 ، وركزت في البداية على سوق الحوسبة السحابية بدون إذن ، والتي تتميز بخدمات التخزين وتأجير وحدة المعالجة المركزية. في يونيو 2023 ، قدم عكاش شبكة اختبار تتمحور حول وحدة معالجة الرسومات ، تلاها إطلاق شبكة رئيسية لوحدة معالجة الرسومات في سبتمبر ، مما يتيح التدريب الذكاء الاصطناعي والاستدلال على تأجير وحدات معالجة الرسومات.
يتألف نظام Akash البيئي من مشاركين أساسيين: المستأجرون ، الذين يبحثون عن موارد الحوسبة ، ومقدمو الخدمات ، موردو الحوسبة. تسهل عملية المزاد العكسي مطابقة المستأجرين ومقدمي الخدمات، حيث يقوم المستأجرون بنشر متطلبات الحوسبة الخاصة بهم، بما في ذلك مواقع الخوادم المفضلة أو أنواع الأجهزة وميزانيتهم. ثم يقوم مقدمو الخدمات بالمزايدة ، مع منح أقل مزايد المهمة. يحافظ المدققون على سلامة الشبكة ، مع الحد الأقصى الحالي عند 100 مدقق ، ومن المخطط أن يزداد بمرور الوقت. المشاركة كمدقق مفتوحة لأولئك الذين يراهنون على AKT أكثر من المدقق الحالي الأقل رهانا. يمكن لحاملي AKT تفويض الرموز المميزة الخاصة بهم إلى المدققين ، مع رسوم المعاملات ومكافآت الكتلة الموزعة في AKT. علاوة على ذلك ، لكل عقد إيجار ، تكسب شبكة عكاش "معدل أخذ" ، يقرره المجتمع ، ويوزع على حاملي AKT.
تهدف السوق الثانوية للحوسبة اللامركزية إلى معالجة أوجه القصور في السوق الحاسوبية الحالية ، حيث تؤدي قيود العرض إلى قيام الشركات بتخزين الموارد بما يتجاوز احتياجاتها ، كما أن العقود طويلة الأجل مع مزودي الخدمات السحابية تحد من العرض. تفتح منصات الحوسبة اللامركزية إمدادا جديدا ، مما يتيح لأي شخص لديه احتياجات حسابية أن يصبح مزودا.
يبقى أن نرى ما إذا كانت الزيادة في الطلب على وحدات معالجة الرسومات للتدريب الذكاء الاصطناعي تترجم إلى استخدام مستدام للشبكة على أكاش. تاريخيا ، قدمت عكاش خدمات السوق القائمة على وحدة المعالجة المركزية بخصم 70-80٪ مقارنة بالبدائل المركزية ، ومع ذلك فإن استراتيجية التسعير هذه لم تدفع بشكل كبير إلى التبني. استقر نشاط الشبكة ، الذي تم قياسه من خلال عقود الإيجار النشطة ، بمتوسط 33٪ حوسبة ، و 16٪ ذاكرة ، و 13٪ استخدام التخزين بحلول الربع الثاني من عام 2023 ، وهو أمر مثير للإعجاب للاعتماد على السلسلة ولكنه يشير إلى أن العرض لا يزال يفوق الطلب. بعد مرور نصف عام على إطلاق شبكة GPU ، من السابق لأوانه إجراء تقييم نهائي للاعتماد على المدى الطويل ، على الرغم من أن العلامات المبكرة تظهر متوسط استخدام GPU بنسبة 44٪ ، مدفوعا بشكل أساسي بالطلب على وحدات معالجة الرسومات عالية الجودة مثل A100 ، والتي تم تأجير أكثر من 90٪ منها.
زادت نفقات أكاش اليومية بشكل كبير تقريبًا منذ إدخال وحدات المعالجة الرسومية، نسبة جزئية إلى زيادة استخدام الخدمات الأخرى، خاصة وحدات المعالجة المركزية، ولكن السبب الرئيسي هو استخدام وحدات المعالجة الرسومية الجديدة.
التسعير تنافسي مع، أو في بعض الحالات أكثر تكلفة من النظراء المركزية مثل Lambda Cloud و Vast.ai. الطلب الكبير على وحدات معالجة الرسومات عالية الجودة، مثل H100 و A100، يعني أن معظم أصحاب مثل هذا المعدات ليسوا مهتمين بإدراجها في سوق تنافسي الأسعار.
على الرغم من الأرباح الأولية، تظل العقبات التبني. يجب على شبكات الحوسبة اللامركزية اتخاذ خطوات إضافية لتوليد الطلب والعرض، مع فرق تبحث في كيفية جذب مستخدمين جدد بشكل أفضل. على سبيل المثال، في بداية عام 2024، وافقت شبكة Akash على مقترح 240، مما زاد من إطلاق عملات AKT لمزودي وحدات GPU لتحفيز المزيد من العرض، خاصة بالنسبة لوحدات GPU عالية الجودة. كما تعمل الفرق على نماذج البرهان الأولي لإظهار قدرات شبكاتها المباشرة للمستخدمين المحتملين. تقوم Akash بتدريب نماذجها الأساسية وقد أطلقت منتجات الدردشة الآلية وإنشاء الصور التي تستخدم وحدات GPU Akash. بالمثل، قام io.net بتطوير نموذج انتشار مستقر ويطلق وظائف الشبكة الجديدة لتقليد أداء الشبكة بشكل أفضل وتوسيعه.
بالإضافة إلى منصات الحوسبة العامة التي يمكن أن تلبي متطلبات الذكاء الاصطناعي، يظهر أيضًا مجموعة من موردي وحدات معالجة الرسوميات المهنيين المتخصصين في تدريب نماذج التعلم الآلي. على سبيل المثال، تُركز شركة Gensyn على "تنسيق القوة والأجهزة لبناء الذكاء التعاوني"، مع فلسفة "إذا أراد شخص ما تدريب شيء ما وكان هناك شخص مستعد لتدريبه، فيجب السماح بهذا التدريب أن يحدث."
هذا البروتوكول يشمل أربع مشاركين رئيسيين: المقدمين، والحلول، والموثقين، والمبلغين. يقوم المقدمون بتقديم المهام مع طلبات التدريب إلى الشبكة. تشمل هذه المهام الأهداف التدريبية، والنماذج التي يجب تدريبها، وبيانات التدريب. كجزء من عملية التقديم، يجب على المقدمين دفع تكلفة الحساب الحسابية المقدرة المطلوبة من قبل الحلول.
بعد التقديم، يتم تعيين المهام لحل المشكلات الذين يقومون فعلياً بتدريب النموذج. ثم يقوم حل المشكلات بتقديم المهام المكتملة إلى المحققين، الذين يتحملون مسؤولية التحقق من التدريب للتأكد من أنه تم اكتماله بشكل صحيح. يتم تكليف المبلغين بضمان تصرف المحققين بصدق. ولتحفيز المبلغين على المشاركة في الشبكة، تخطط جينسين لتقديم عروض أدلة غير صحيحة بشكل منتظم، مكافأة المبلغين الذين يكتشفونها.
بالإضافة إلى توفير الحسابات لأعباء العمل المتعلقة بالذكاء الاصطناعي، القيمة المقترحة الرئيسية لـ Gensyn هي نظام التحقق الخاص بها، والذي لا يزال قيد التطوير. التحقق ضروري لضمان أن الحساب الخارجي من مزودي وحدة معالجة الرسومات يتم تنفيذه بشكل صحيح (أي ضمان تدريب نماذج المستخدمين بالطريقة التي يرغبون فيها). يعالج Gensyn هذه المشكلة بنهج فريد، يستخدم أساليب تحقق جديدة تسمى "إثباتات التعلم الاحتمالية، وبروتوكولات محددة قائمة على الرسوم البيانية، وألعاب حوافز ذات نمط Truebit". هذا نموذج حل متفائل يسمح للمحققين بتأكيد أن الحلول قد قامت بتشغيل النموذج بشكل صحيح دون الحاجة إلى إعادة تشغيل النموذج بالكامل بأنفسهم، وهو عملية مكلفة وغير فعالة.
بالإضافة إلى طريقة التحقق الابتكارية الخاصة بها، تدعي Gensyn أيضًا أنها فعالة من حيث التكلفة مقارنة بالبدائل المركزية والمنافسين في مجال العملات الرقمية - مما يقدم أسعار تدريب ML تصل إلى 80% أرخص من AWS، مع تفوق مشروعات مماثلة مثل Truebit في الاختبارات.
سواء يمكن تكرار هذه النتائج الأولية على نطاق واسع في الشبكات اللامركزية لا يزال مجهولًا. تأمل Gensyn في الاستفادة من القدرة الحوسبية الزائدة لموفري الخدمات مثل مراكز البيانات الصغيرة ومستخدمي التجزئة، وفي نهاية المطاف من الأجهزة المحمولة الصغيرة مثل الهواتف الذكية. ومع ذلك، كما يعترف فريق Gensyn بأن الاعتماد على موفري الحوسبة المتنوعين يُعرض لبعض التحديات الجديدة.
بالنسبة لمقدمي الخدمات المركزية مثل Google Cloud و Coreweave، تكلفة الحوسبة مكلفة، ولكن التواصل بين الحوسبات (نطاق النطاق الترددي والتأخير) رخيص. تم تصميم هذه الأنظمة لتسهيل التواصل بين الأجهزة بأسرع ما يمكن. يقوم Gensyn بتعطيل هذا الإطار عن طريق تقليل تكاليف الحساب عن طريق السماح لأي شخص في العالم بتقديم وحدات معالجة الرسومات، ولكن في الوقت نفسه يزيد من تكاليف التواصل، حيث يجب على الشبكة الآن تنسيق وظائف الحساب عبر أجهزة مختلفة وبعيدة. لم يتم إطلاق Gensyn بعد، ولكنه يمثل دليلاً على الفكرة التي يمكن تحقيقها عند بناء بروتوكول تدريب التعلم الآلي الموزع.
تقدم منصات الحوسبة اللامركزية أيضًا إمكانية تصميم أساليب لإنشاء الذكاء الاصطناعي. Bittensor هو بروتوكول حوسبة لامركزية مبني على Substrate، يحاول الإجابة على السؤال، "كيف نحول الذكاء الاصطناعي إلى طريقة تعاونية؟" يهدف Bittensor إلى تحقيق لامركزية وتجميعية إنتاج الذكاء الاصطناعي. تم إطلاقه في عام 2021، ويأمل في الاستفادة من قوة نماذج التعلم الآلي التعاوني للتكرار بشكل مستمر وإنتاج ذكاء اصطناعي أفضل.
يستوحي Bittensor من Bitcoin، حيث يكون لديه عملة أصلية تسمى TAO، وتكون حد الإمداد لها 21 مليونًا ودورة تقسيم كل أربع سنوات (تم تعيين القسم الأول لعام 2025). على عكس استخدام دليل العمل لتوليد الأرقام العشوائية الصحيحة وكسب مكافآت الكتلة، يعتمد Bittensor على "دليل الذكاء"، حيث يتطلب من المنقبين تشغيل النماذج لتوليد الإخراجات ردًا على طلبات الاستدلال.
تحفيز الذكاء
في البداية ، اعتمد Bittensor على نموذج مزيج من الخبراء (MoE) لتوليد المخرجات. عند تقديم طلب استدلال ، لا يعتمد نموذج MoE على نموذج معمم ولكنه يعيد توجيه الطلب إلى النموذج الأكثر دقة لنوع الإدخال المحدد. تخيل بناء منزل ، حيث تقوم بتعيين خبراء مختلفين لجوانب مختلفة من عملية البناء (على سبيل المثال ، المهندسين المعماريين والمهندسين والرسامين وعمال البناء ، وما إلى ذلك). تطبق وزارة التربية والتعليم هذا على نماذج التعلم الآلي ، في محاولة للاستفادة من مخرجات النماذج المختلفة بناء على المدخلات. كما أوضح مؤسس Bittensor Ala Shaabana ، فإن هذا يشبه "التحدث إلى غرفة مليئة بالأشخاص الأذكياء للحصول على أفضل إجابة ، بدلا من التحدث إلى شخص واحد". نظرا للتحديات في ضمان التوجيه الصحيح ومزامنة الرسائل مع النموذج الصحيح والحوافز ، فقد تم تعليق هذه الطريقة حتى مزيد من التطوير للمشروع.
في شبكة Bittensor ، هناك مشاركان رئيسيان: المدققون وعمال المناجم. يرسل المدققون طلبات الاستدلال إلى عمال المناجم ، ويراجعون مخرجاتهم ، ويرتبونها بناء على جودة ردودهم. لضمان موثوقية تصنيفاتهم ، يتم منح المدققين درجة "vtrust" بناء على مدى اتساق تصنيفاتهم مع المدققين الآخرين. كلما ارتفعت درجة vtrust للمدقق ، زادت انبعاثات TAO التي يتلقونها. هذا لتحفيز المدققين للتوصل إلى توافق في الآراء بشأن تصنيفات النموذج بمرور الوقت ، حيث كلما زاد عدد المدققين الذين يتفقون على التصنيفات ، زادت درجاتهم الفردية في vtrust.
يعتبر المُنقبون، المعروفين أيضًا بالخوادم، من المشاركين في الشبكة الذين يقومون بتشغيل نماذج التعلم الآلي الفعلية. يتنافسون لتوفير أكثر النتائج دقةً لاستفسارات الموثقين، وكلما زادت دقة النتائج، زادت الإنبعاثات من TAO التي يكسبونها. يحرر المنقبون لتوليد هذه النتائج كما يرون مناسبًا. على سبيل المثال، في المستقبل، من الممكن تمامًا أن يكون لدى منقبي Bittensor نماذج تم تدريبها مسبقًا على Gensyn واستخدامها لكسب إنبعاثات TAO.
اليوم، تحدث معظم التفاعلات مباشرة بين المحققين والمنقبين. يقدم المحققون المدخلات إلى المنقبين ويطلبون النواتج (أي تدريب النموذج). بمجرد أن يستعلم المحققون المنقبين على الشبكة ويتلقون ردودهم، يصنفون المنقبين ويقدمون تصنيفاتهم إلى الشبكة.
التفاعل بين المحققين (الذين يعتمدون على PoS) والمنقبين (الذين يعتمدون على نموذج البرهان، وهو شكل من أشكال PoW) معروف باسم توافق Yuma. يهدف إلى تحفيز المنقبين على إنتاج أفضل النتائج لكسب انبعاثات TAO وتحفيز المحققين على ترتيب نتائج المنقبين بدقة، مما يؤدي إلى زيادة درجات الثقة وزيادة مكافآت TAO الخاصة بهم، وبالتالي تشكيل آلية توافق للشبكة.
الشبكات الفرعية والتطبيقات
تتضمن التفاعلات على Bittensor في الغالب تقديم المحققين للطلبات إلى المنقبين وتقييم إخراجهم. ومع ذلك، مع تحسن جودة المنقبين المساهمين ونمو الذكاء العام للشبكة، يقوم Bittensor بإنشاء طبقة تطبيق على رأس كومة البرامج الحالية بحيث يمكن للمطورين بناء تطبيقات تستعلم عن شبكة Bittensor.
في أكتوبر 2023، قدم Bittensor الشبكات الفرعية من خلال ترقية الثورة، مما يشكل خطوة هامة نحو تحقيق هذا الهدف. الشبكات الفرعية هي شبكات منفصلة على Bittensor تحفز على سلوكيات محددة. فتحت الثورة الشبكة لأي شخص مهتم بإنشاء شبكات فرعية. خلال أشهر من إطلاقها، تم إطلاق أكثر من 32 شبكة فرعية، بما في ذلك شبكات فرعية لتحفيز النصوص، واستخراج البيانات، وإنشاء الصور، والتخزين. مع نضوج الشبكات الفرعية وتصبح جاهزة للمنتج، سيقوم مبتكرو الشبكات الفرعية أيضًا بإنشاء تكاملات التطبيقات، مما يتيح للفرق بناء تطبيقات تستعلم عن شبكات فرعية محددة. بعض التطبيقات، مثل الروبوتات الدردشة، ومولدات الصور، وروبوتات ردود تويتر، وأسواق التنبؤ، موجودة ولكن لا توجد حوافز رسمية بعد التمويل من مؤسسة Bittensor للمحققين لقبول وتوجيه هذه الاستفسارات.
لتوضيح أكثر، فيما يلي مثال على كيفية عمل Bittensor بمجرد دمج التطبيقات في الشبكة.
يكسب الشبكات الفرعية TAO استنادًا إلى الأداء الذي يُقيّمه الشبكة الجذرية. تعمل الشبكة الجذرية، والتي توجد فوق جميع الشبكات الفرعية، في الأساس كشبكة فرعية خاصة وتُدار من قبل أكبر 64 محققًا للشبكات الفرعية من حيث الرهان. يُصنف محققو الشبكة الجذرية الشبكات الفرعية استنادًا إلى أدائها ويُخصصون بانتظام انبعاثات TAO للشبكات الفرعية. وبهذه الطريقة، تعمل الشبكات الفرعية الفردية كمنقبين لصالح الشبكة الجذرية.
رؤية بيتنسور
لا يزال Bittensor يعاني من آلام متزايدة لأنه يوسع وظائف البروتوكول لتحفيز توليد الذكاء عبر شبكات فرعية متعددة. يبتكر عمال المناجم باستمرار طرقا جديدة لمهاجمة الشبكة للحصول على المزيد من مكافآت TAO ، مثل التغيير الطفيف في ناتج الاستدلالات عالية التصنيف التي تديرها نماذجهم ثم تقديم متغيرات متعددة. لا يمكن تقديم مقترحات الحوكمة التي تؤثر على الشبكة بأكملها وتنفيذها إلا من قبل Triumvirate ، المكون بالكامل من أصحاب المصلحة من مؤسسة Opentensor (على وجه الخصوص ، تتطلب المقترحات موافقة مجلس الشيوخ Bittensor ، المكون من مدققي Bittensor ، قبل التنفيذ). ويجري تعديل الرموز المميزة للمشروع لتعزيز الحوافز لاستخدام TAO عبر الشبكة الفرعية. كما اكتسب المشروع سمعة سيئة بسبب نهجه الفريد ، حيث صرح الرئيس التنفيذي لأحد أشهر مواقع الذكاء الاصطناعي ، HuggingFace ، بأن Bittensor يجب أن تضيف مواردها إلى الموقع.
في مقال حديث بعنوان 'نموذج Bittensor' نشره المطورون الأساسيون، حدد الفريق رؤية Bittensor لتصبح في نهاية المطاف 'عقلانية لما يتم قياسه.' نظريًا، يمكن أن يمكّن هذا Bittensor من تطوير الشبكات الفرعية التي تحفز أي نوع من السلوك المدعوم بواسطة TAO. لا تزال هناك قيود عملية كبيرة - ومن أبرزها إثبات أن هذه الشبكات يمكن أن تتوسع للتعامل مع مجموعة متنوعة من العمليات وأن الحوافز المحتملة تدفع التقدم خارج المنتجات المركزية.
يقدم القسم أعلاه لمحة عميقة عن مختلف أنواع بروتوكولات الذكاء الاصطناعي (AI) اللامركزية التي تخضع حاليًا للتطوير. في مراحلها الأولى من التطوير والاعتماد، تُوضع الأسس لنظام بيئي قد يسهل في نهاية المطاف إنشاء "بنية ذكاء اصطناعي"، على غرار مفهوم "موني ليجوس" في DeFi. تُمكّن قابلية الإرتباط الخاصة بسلاسل الكتل اللامركزية من إمكانية بناء كل بروتوكول على آخر، مما يخلق نظام بيئي للذكاء الاصطناعي اللامركزي شاملًا أكثر.
على سبيل المثال، هكذا قد يتفاعل أكاش وجينسين وبيتنسور معًا للرد على طلبات الاستدلال.
من الأهمية بمكان أن نفهم أن هذا مجرد مثال واحد على ما يمكن أن يحدث في المستقبل ، وليس تمثيلا للنظام البيئي الحالي أو الشراكات الحالية أو النتائج المحتملة. إن قيود قابلية التشغيل البيني والاعتبارات الأخرى الموضحة أدناه تحد بشكل كبير من إمكانيات التكامل اليوم. علاوة على ذلك ، فإن تجزئة السيولة والحاجة إلى استخدام رموز متعددة يمكن أن تضر بتجربة المستخدم ، وهي نقطة لاحظها مؤسسو Akash و Bittensor.
بالإضافة إلى مجال الحوسبة، تم تقديم العديد من خدمات البنية التحتية اللامركزية الأخرى لدعم نظام الذكاء الاصطناعي الناشئ ضمن مجال العملات الرقمية. تتجاوز قائمة جميع هذه الخدمات نطاق هذا التقرير، ولكن بعض الأمثلة المثيرة والموضحة تشمل:
بشكل عام، تشير هذه الأمثلة إلى الفرص الشبه لامحدودة لاستكشاف نماذج السوق اللامركزية التي تدعم نماذج الذكاء الاصطناعي أو البنية التحتية الطرفية اللازمة لتطويرها. حاليًا، معظم هذه المشاريع في مرحلة إثبات المفهوم وتتطلب المزيد من الأبحاث والتطوير لإثبات أنها يمكن أن تعمل على النطاق المطلوب لتوفير خدمات الذكاء الاصطناعي الشاملة.
منتجات الحوسبة اللامركزية لا تزال في مراحل التطوير الأولية. لقد بدأت للتو في إطلاق قدرات الحوسبة على أحدث مستوى، قادرة على تدريب نماذج الذكاء الاصطناعي الأقوى في الإنتاج. لكي تحصل على حصة سوق معنوية، يجب عليها أن تظهر مزايا فعلية على البدائل المركزية. من الحوافز المحتملة لتبني أوسع تشمل:
العقود الذكية هي ركيزة أساسية في أي نظام بلوكشين. تنفذ تلقائيًا تحت مجموعة من الشروط المحددة، مما يقلل أو يقضي على الحاجة إلى الأطراف الثالثة الموثوق بها، مما يمكن من خلق تطبيقات لامركزية معقدة، مثل تلك الموجودة في مجال العملات الرقمية. ومع ذلك، فإن وظيفة العقود الذكية مازالت محدودة لأنها تعمل بناءً على معلمات محددة مسبقًا يجب تحديثها.
على سبيل المثال، يتم نشر عقد ذكي لبروتوكول الإقراض/الاقتراض، الذي يحتوي على مواصفات حول متى يجب تصفية المراكز استنادًا إلى معدلات قيمة القرض الخاصة. بينما يكون مفيدًا في البيئات الثابتة، إلا أن هذه العقود الذكية تحتاج إلى تحديثات مستمرة للتكيف مع التغييرات في تحمل المخاطر في الحالات الديناميكية، مما يعرض تحديات للعقود غير المدارة من خلال عمليات مركزية. على سبيل المثال، قد لا تستجيب منظمات العمل اللاإداري التي تعتمد على عمليات الحوكمة اللاإدارية بسرعة كافية للمخاطر النظامية.
يُعدّ دمج الذكاء الاصطناعي (أي نماذج التعلم الآلي) في العقود الذكية وسيلة محتملة لتعزيز الوظائف والأمان والكفاءة بينما يتم تحسين تجربة المستخدم العامة. ومع ذلك، تقدم هذه التكاملات أيضًا مخاطر إضافية، حيث يصعب التأكد من عدم استغلال النماذج الأساسية لهذه العقود الذكية أو فشلها في تفسير الحالات الطويلة الذيل (نظرًا لندرة البيانات الإدخالية، فإن الحالات الطويلة الذيل صعبة للنماذج في التدريب عليها).
يتطلب تعلم الآلة حسابات كبيرة لتشغيل نماذج معقدة، مما يجعل من غير العملي تشغيل نماذج الذكاء الاصطناعي مباشرة في العقود الذكية بسبب التكاليف العالية. على سبيل المثال، سيجد بروتوكول ديفاي يقدم نماذج تحسين العائد صعوبة في تشغيل هذه النماذج في السلسلة دون تحمل رسوم الغاز الحظرية. إحدى الحلول هي زيادة قدرات الحساب الخلفية للسلسلة. ومع ذلك، يرفع هذا أيضًا متطلبات المحققين في السلسلة، مما قد يضر باللامركزية. بدلاً من ذلك، يقوم بعض المشاريع باستكشاف استخدام zkML للتحقق من الإخراج بطريقة غير معتمدة على الثقة دون الحاجة إلى حساب مكثف على السلسلة.
مثال شائع يوضح فائدة zkML هو عندما يحتاج المستخدمون إلى تشغيل البيانات من خلال النماذج والتحقق من أن أقرانهم قد قاموا فعلاً بتشغيل النموذج الصحيح. يمكن للمطورين استخدام مزودي الحوسبة اللامركزية لتدريب نماذجهم أن يشعروا بالقلق بشأن تقليص تكاليف هؤلاء المزودين عن طريق استخدام نماذج أرخص تنتج مخرجات تحتوي على اختلافات شبه لا يمكن ادراكها. يسمح zkML لمزودي الحوسبة بتشغيل البيانات من خلال نماذجهم ثم توليد الأدلة التي يمكن التحقق منها على السلسلة، مثبتاً أن مخرجات النموذج للمدخلات المعطاة صحيحة. في هذ scen, يحصل مزود النموذج على ميزة إضافية بأن يكون قادراً على تقديم نموذجه من دون الكشف عن الأوزان الأساسية التي أنتجت النواتج.
العكس ممكن أيضًا. إذا كان الأشخاص يرغبون في تشغيل النماذج على بياناتهم ولكنهم لا يرغبون في منح مشاريع النماذج إمكانية الوصول إلى بياناتهم بسبب مخاوف الخصوصية (على سبيل المثال، في الفحوصات الطبية أو المعلومات الخاصة بالأعمال الخاصة)، فيمكنهم تشغيل النموذج على بياناتهم دون مشاركة البيانات، ثم التحقق من خلال البراهين أنهم قاموا بتشغيل النموذج الصحيح. توسعت هذه الإمكانيات بشكل كبير في مجال التصميم لدمج وظائف الذكاء الاصطناعي والعقود الذكية من خلال معالجة القيود الحسابية المربكة.
نظرًا لمرحلة البداية لمجال zkML ، يتم التركيز بشكل أساسي على بناء البنية التحتية والأدوات التي تحتاجها الفرق لتحويل نماذجها ونواتجها إلى أدلة يمكن التحقق منها على السلسلة. تجري هذه المنتجات تجريد الجوانب الخاصة بالمعرفة الصفرية قدر الإمكان.
EZKL و Giza هما مشروعان يقومان ببناء أدوات مثل هذه عن طريق توفير أدلة قابلة للتحقق على تنفيذ نموذج تعلم الآلة. كلاهما يساعد الفرق في بناء نماذج تعلم الآلة لضمان أن يمكن تنفيذ هذه النماذج بطريقة تسمح بالتحقق من النتائج على السلسلة بطريقة موثوقة. كلا المشروعين يستخدمان Open Neural Network Exchange (ONNX) لتحويل نماذج تعلم الآلة المكتوبة بلغات شائعة مثل TensorFlow و Pytorch إلى تنسيق قياسي. ثم يخرجون إصدارات من هذه النماذج تنشئ أيضًا أدلة zk أثناء التنفيذ. يعتبر EZKL مفتوح المصدر، مما ينتج عنه zk-SNARKs، في حين أن Giza مغلق المصدر، مما ينتج عنه zk-STARKs. كلا المشروعين حاليًا متوافقين فقط مع EVM.
في الأشهر الأخيرة، حققت EZKL تقدمًا كبيرًا في تعزيز حلول zkML، مركزة بشكل رئيسي على تقليل التكاليف، وتحسين الأمان، وتسريع إنشاء الدليل. على سبيل المثال، في نوفمبر 2023، قامت EZKL بدمج مكتبة GPU مفتوحة المصدر جديدة خفضت وقت إثبات التجميع بنسبة 35%؛ في يناير، أصدرت EZKL Lilith، وهو حل برمجي لدمج مجموعات الحوسبة العالية الأداء وتنظيم أنظمة العمل المتزامنة عند استخدام إثباتات EZKL. يكمن تفرد جيزا في توفير أدوات لإنشاء نماذج التعلم الآلي القابلة للتحقق والتخطيط لتنفيذ ما يعادل web3 لـ Hugging Face، وافتتاح سوق للمستخدم للتعاون ومشاركة النماذج zkML، ودمج منتجات الحوسبة اللامركزية في نهاية المطاف. في يناير، نشرت EZKL تقييم مقايس يقارن أداء EZKL وجيزا وRiscZero (كما هو موضح أدناه)، مما يظهر أوقات إثبات أسرع واستخدام الذاكرة.
تعمل Modulus Labs حاليا على تطوير تقنية جديدة لإثبات المعرفة الصفرية (zk) مصممة خصيصا لنماذج الذكاء الاصطناعي. أصدرت Modulus ورقة بعنوان "التكلفة الذكية" ، والتي تعني أن تشغيل نماذج الذكاء الاصطناعي على السلسلة يتكبد تكاليف باهظة للغاية. تقيس هذه الورقة ، التي نشرت في يناير 2023 ، أنظمة إثبات zk الحالية لتحديد التحسينات في قدرة إثباتات zk والاختناقات داخل نماذج الذكاء الاصطناعي. يكشف أن المنتجات الحالية باهظة الثمن وغير فعالة لتطبيقات الذكاء الاصطناعي واسعة النطاق. بناء على البحث الأولي ، أطلقت Modulus Remainder في نوفمبر ، وهو برنامج متخصص في zk يهدف إلى تقليل التكلفة ووقت الإثبات لنماذج الذكاء الاصطناعي ، مما يجعل المشاريع مجدية اقتصاديا للاندماج على نطاق واسع في العقود الذكية. عملهم مملوك ، مما يجعل من المستحيل قياس الحلول المذكورة ، ولكن تم الاستشهاد به مؤخرا في منشور مدونة فيتاليك حول التشفير والذكاء الاصطناعي.
تطوير الأدوات والبنية التحتية أمر حاسم لنمو مستقبل مساحة zkML، حيث يمكن أن يقلل بشكل كبير من الاحتكاك المتضمن في نشر الحوسبات الخارجية التي يمكن التحقق منها والحاجة إلى فرق zk. إن إنشاء واجهات آمنة للممارسين الذين ليسوا من أصل العملات الرقمية في تعلم الآلة لجلب نماذجهم على سلسلة الكتل سيمكن التطبيقات من تجربة حالات استخدام حقًا جديدة. بالإضافة إلى ذلك، تعالج هذه الأدوات عقبة كبيرة أمام اعتماد zkML بشكل أوسع: نقص المطورين الملمين الذين يهتمون بالعمل في تقاطع الدليل الصفري، وتعلم الآلة، والتشفير.
الحلول الأخرى في التطوير، المشار إليها بـ 'coprocessors' (مثل RiscZero، Axiom، و Ritual)، تخدم أدوارًا مختلفة، بما في ذلك التحقق من الحسابات خارج السلسلة على السلسلة. مثل EZKL، Giza، و Modulus، هدفهم هو تجريد عملية إنشاء البرهان zk بالكامل، وإنشاء آلات افتراضية تعرف على الصفر قادرة على تنفيذ برامج خارج السلسلة وإنشاء بروفات يمكن التحقق منها على السلسلة. RiscZero و Axiom مخصصة لنماذج الذكاء الاصطناعي البسيطة ك coprocessors أكثر عامة الغرض، بينما تم بناء Ritual خصيصًا للاستخدام مع نماذج الذكاء الاصطناعي.
أول حالة لـ Ritual، Infernet، تتضمن Infernet SDK الذي يسمح للمطورين بتقديم طلبات استنتاج إلى الشبكة واستلام النتائج والأدلة الاختيارية بدلاً من ذلك. تقوم عقدة Infernet بمعالجة هذه الحسابات خارج السلسلة قبل إرجاع النتائج. على سبيل المثال، يمكن لمنظمة ذاتية الحكم (DAO) إنشاء عملية تضمن أن جميع المقتراحات الجديدة للحوكمة تفي بشروط معينة قبل التقديم. في كل مرة يتم فيها تقديم مقترح جديد، يُشغل العقد الحكومي طلب استنتاج من خلال Infernet، مستدعيًا نموذجًا ذكيًا تم تدريبه خصيصًا لحوكمة DAO. يُراجع هذا النموذج المقترح لضمان تلبية جميع المعايير اللازمة ويرجع النتائج والأدلة للموافقة على تقديم المقترح أو رفضه.
في السنة القادمة، يخطط فريق Ritual لإدخال المزيد من الميزات، مشكِّلا طبقة بنية تحتية تُعرف باسم سوبرشين Ritual. يمكن دمج العديد من المشاريع المناقشة كمزودي خدمات في Ritual. لقد قام فريق Ritual بالفعل بالتكامل مع EZKL لتوليد البراهين وقد يضيف قريبًا ميزات من مزودي خدمات رائدين آخرين. يمكن أيضًا لعُقد Infernet على Ritual الاستفادة من وحدات معالجة الرسوميات Akash أو io.net واستعلام النماذج التدريبية على الشبكة الفرعية Bittensor. هدفهم النهائي هو أن يصبحوا مزود البنية التحتية المفضل للذكاء الاصطناعي المفتوح، وتقديم خدمات للتعلم الآلي ومهام أخرى متعلقة بالذكاء الاصطناعي لأي شبكة وأي عبء عمل.
zkML يساعد في التوفيق بين تناقض بين سلسلة الكتل، التي تعاني من قيود الموارد بشكل أساسي، والذكاء الاصطناعي، الذي يتطلب موارد حوسبة وبيانات كبيرة بشكل كبير. كمؤسس لشركة جيزا يقول، "حالات الاستخدام غنية للغاية… إنها تشبه قليلاً طرح حالات الاستخدام للعقود الذكية في الأيام الأولى لإيثريوم… ما نقوم به هو مجرد توسيع حالات الاستخدام للعقود الذكية". ومع ذلك، كما لوحظ، يحدث التطوير الحالي بشكل أساسي على مستوى الأدوات والبنية التحتية. لا تزال التطبيقات في مرحلة الاستكشاف، مع واجهة الفرق تحدي إثبات أن القيمة التي تولدها تنفيذ النماذج باستخدام zkML تفوق تعقيدها وتكلفتها.
التطبيقات الحالية تشمل:
لا يزال zkML تجريبيا ، حيث تركز معظم المشاريع على بناء بدائيات البنية التحتية وإثبات المفهوم. تشمل التحديات الحالية التكاليف الحسابية ، وقيود الذاكرة ، وتعقيد النموذج ، والأدوات والبنية التحتية المحدودة ، ومواهب المطورين. باختصار ، هناك عمل كبير يتعين القيام به قبل تنفيذ zkML على النطاق المطلوب من قبل المنتجات الاستهلاكية.
ومع ذلك، مع نضوج المجال ومعالجة هذه القيود، سيصبح zkML عنصرًا رئيسيًا في دمج الذكاء الاصطناعي مع التشفير. في جوهره، يعد zkML بجلب أي مقياس من الحسابات خارج السلسلة إلى السلسلة، مع الحفاظ على تأكيدات الأمان نفسها أو ما يشابه تشغيل داخل السلسلة. ومع ذلك، قبل تحقيق هذه الرؤية، سيستمر المعتمدون المبكرون على التكنولوجيا في موازنة خصوصية zkML وأمانها مقابل كفاءة البدائل.
وكلاء الذكاء الاصطناعي
واحدة من أكثر التكاملات مثيرة للاهتمام بين الذكاء الاصطناعي والعملات الرقمية هي التجربة المستمرة مع وكلاء الذكاء الاصطناعي. الوكلاء هم روبوتات مستقلة قادرة على استقبال المهام وتفسيرها وتنفيذها باستخدام نماذج الذكاء الاصطناعي. يمكن أن يشمل هذا وجود مساعد شخصي متاح في جميع الأوقات، مضبط بدقة وفقًا لتفضيلاتك، إلى توظيف وكيل مالي لإدارة وضبط محفظة استثماراتك استنادًا إلى تفضيلات المخاطر الخاصة بك.
نظرًا لأن العملات الرقمية توفر بنية تحتية للدفع غير المحظورة وغير الموثوقة، يمكن دمج الوكلاء والعملات الرقمية بشكل جيد. بمجرد تدريبهم، سيكون لدى الوكلاء محفظة، مما يتيح لهم إجراء المعاملات بمفردهم باستخدام العقود الذكية. على سبيل المثال، يمكن للوكلاء الحاليين اليوم جمع المعلومات على الإنترنت ثم التداول في أسواق التنبؤ استنادًا إلى النماذج.
Morpheus هو أحد أحدث مشاريع الوكلاء مفتوحة المصدر التي تم إطلاقها في عام 2024 على Ethereum و Arbitrum. تم نشر ورقتها البيضاء بشكل مجهول في سبتمبر 2023 ، مما يوفر أساسا لتشكيل وبناء المجتمع ، بما في ذلك شخصيات بارزة مثل إريك فورهيس. يتضمن المستند التعريفي التمهيدي بروتوكول وكيل ذكي قابل للتنزيل ، وهو ماجستير في القانون مفتوح المصدر يمكن تشغيله محليا ، وإدارته بواسطة محفظة المستخدم ، والتفاعل مع العقود الذكية. يستخدم تصنيفات العقود الذكية لمساعدة الوكلاء على تحديد العقود الذكية التي يمكن التفاعل معها بأمان بناء على معايير مثل عدد المعاملات التي تمت معالجتها.
يقدم الكتاب الأبيض أيضًا إطارًا لبناء شبكة Morpheus، بما في ذلك الهياكل التحفيزية والبنية التحتية اللازمة لتشغيل بروتوكول الوكيل الذكي. ويشمل ذلك حوافز للمساهمين في بناء واجهات أمامية للتفاعل مع الوكلاء، وواجهات برمجة التطبيقات للمطورين لبناء وكلاء إضافيين للتفاعل المتبادل، وحلول سحابية للمستخدمين للوصول إلى الحساب والتخزين اللازمين لتشغيل الوكلاء على أجهزة الحواف. تم إطلاق تمويل المشروع الأولي في بداية فبراير، ومن المتوقع أن يتم إطلاق البروتوكول الكامل في الربع الثاني من عام 2024.
شبكة البنية التحتية اللامركزية الذاتية (DAIN) هي بروتوكول بنية تحتية للوكلاء جديد يقوم ببناء اقتصاد وكلاء إلى وكلاء على منصة سولانا. الهدف من DAIN هو تمكين الوكلاء من مختلف الشركات من التفاعل بسلاسة مع بعضهم البعض من خلال واجهة برمجة تطبيقات مشتركة، مما يفتح بشكل كبير مساحة التصميم لوكلاء الذكاء الاصطناعي، مع التركيز على الوكلاء القادرين على التفاعل مع منتجات الويب2 والويب3. في يناير، أعلنت DAIN شراكتها الأولى مع Asset Shield، مما يتيح للمستخدمين إضافة "وكلاء توقيع" إلى عمليات التوقيع المتعددة، قادرين على تفسير المعاملات والموافقة/الرفض بناءً على قواعد يحددها المستخدم.
تعتبر Fetch.AI واحدة من أقدم بروتوكولات الوكلاء الذكية المنشأة وقد وضعت نظامًا بيئيًا لبناء ونشر واستخدام الوكلاء على السلسلة باستخدام رموز FET ومحافظ Fetch.AI. يقدم البروتوكول مجموعة شاملة من الأدوات والتطبيقات لاستخدام الوكلاء، بما في ذلك وظائف المحفظة الداخلية للتفاعل مع وترتيب الوكلاء.
تأسست شركة Autonolas من قبل أعضاء سابقين في فريق Fetch، وهي سوق مفتوحة لإنشاء واستخدام وكلاء الذكاء الاصطناعي اللامركزيين. توفر Autonolas أيضًا مجموعة من الأدوات للمطورين لبناء وكلاء الذكاء الاصطناعي المستضافين خارج السلسلة يمكنها الاتصال بعدة سلاسل كتلية، بما في ذلك Polygon وEthereum وGnosis Chain وSolana. لديهم حاليًا بعض منتجات تجريبية نشطة لوكلاء الذكاء الاصطناعي، بما في ذلك للأسواق التنبؤية وحكم DAO.
يقوم SingularityNet ببناء سوق للوكلاء الذكية متموّزة، حيث يمكن نشر وكلاء ذكاء اصطناعي متخصصين، ويمكن استئجارهم من قبل آخرين أو وكلاء لأداء مهام معقدة. تعمل شركات أخرى مثل AlteredStateMachine على بناء تكاملات لوكلاء الذكاء الاصطناعي مع NFTs. يقوم المستخدمون بإنشاء NFTs بسمات عشوائية، تمنحهم ميزات وعيوب في مهام مختلفة. يمكن تدريب هؤلاء الوكلاء لتعزيز بعض السمات للاستخدام في الألعاب، DeFi، أو كمساعدين افتراضيين وتداولهم مع مستخدمين آخرين.
بشكل عام، تتصور هذه المشاريع نظامًا مستقبليًا للوكلاء قادرين على العمل بالتعاون ليس فقط لأداء المهام ولكن أيضًا للمساعدة في بناء الذكاء الاصطناعي العام. سيكون لدى الوكلاء المعقدة حقًا القدرة على إكمال المهام تلقائيًا. على سبيل المثال، ستكون الوكلاء التلقائية بمثابة قادرة على معرفة كيفية توظيف وكيل آخر لدمج واجهة برمجة تطبيقات، ثم تنفيذ مهمة بدون الحاجة إلى التأكد من أن الوكيل قد قام بالفعل بالتكامل مع واجهات برمجة تطبيقات خارجية (مثل مواقع حجز السفر) قبل الاستخدام. من وجهة نظر المستخدم، ليس هناك حاجة للتحقق مما إذا كان بإمكان الوكيل إكمال مهمة، حيث يستطيع الوكيل تحديد ذلك بمفرده.
في يوليو 2023 ، أطلقت Lightning Labs تطبيقا لإثبات المفهوم لاستخدام الوكلاء على شبكة Lightning ، والتي أطلق عليها اسم LangChain اسم Bitcoin suite. هذا المنتج مثير للاهتمام بشكل خاص لأنه يهدف إلى معالجة مشكلة تزداد حدة في عالم الويب 2 - مفاتيح API المسورة والمكلفة لتطبيقات الويب.
تتناول LangChain هذه المسألة من خلال توفير مجموعة من الأدوات للمطورين تمكن الوكلاء من شراء وبيع وحفظ البيتكوين، بالإضافة إلى استعلام مفاتيح واجهة برمجة تطبيقات وإرسال مدفوعات صغيرة. على شبكة البرق، يمكن للوكلاء إرسال عدد غير محدود من المدفوعات الصغيرة يوميًا بتكلفة دنيا. عند استخدامها بالتزامن مع إطار واجهة برمجة تطبيقات الدفع L402 من LangChain، يمكن للشركات تعديل تكاليف الوصول إلى واجهات برمجة تطبيقاتهم استنادًا إلى زيادات وانخفاضات في الاستخدام، بدلاً من تحديد معيار واحد مكلف.
في المستقبل، ستكون الأنشطة السلسلية مدفوعة في الغالب بالتفاعلات بين الوكلاء والوكلاء، مما يستلزم وجود آليات لضمان أن يتمكن الوكلاء من التفاعل مع بعضهم البعض دون تكاليف محظورة. يظهر هذا المثال المبكر الإمكانيات المحتملة لاستخدام الوكلاء على خطوط الدفع الفعالة اقتصاديًا وغير المشروطة، مما يفتح آفاقًا لأسواق جديدة وتفاعلات اقتصادية.
مجال الوكلاء لا يزال في مهده. بدأت المشاريع للتو في إطلاق وكلاء وظيفيين قادرين على التعامل مع المهام البسيطة - يقتصر الوصول عادة على المطورين والمستخدمين ذوي الخبرة. ومع ذلك ، بمرور الوقت ، سيكون أحد أهم تأثيرات وكلاء الذكاء الاصطناعي على العملة المشفرة هو تحسين تجربة المستخدم عبر جميع القطاعات. ستبدأ المعاملات في التحول من القائمة على النقر إلى القائمة على النص ، مما يتيح للمستخدمين التفاعل مع الوكلاء على السلسلة عبر واجهات المحادثة. أطلقت فرق مثل Dawn Wallet بالفعل محافظ chatbot ، مما يسمح للمستخدمين بالتفاعل على السلسلة.
علاوة على ذلك، لا يزال غير واضح كيف سيعمل الوكلاء في الويب 2، حيث تعتمد القضبان المالية على المؤسسات المصرفية المنظمة التي لا يمكنها العمل على مدار 24/7 أو تيسير المعاملات عبر الحدود بسلاسة. كما شددت لين ألدن على أن نقص التعويضات والقدرة على التعامل مع المعاملات الصغيرة تجعل قضبان العملات الرقمية جذابة بشكل خاص مقارنة ببطاقات الائتمان. ومع ذلك، إذا أصبح الوكلاء وسيلة أكثر شيوعاً للمعاملات، فمن المرجح أن تتكيف بسرعة مزودات الدفع والتطبيقات الحالية، وتنفيذ البنية التحتية اللازمة للعمل على القضبان المالية الحالية، وبالتالي التقليل من بعض فوائد استخدام العملات الرقمية.
حالياً، قد تكون الوكالات مقيدة إلى المعاملات الرقمية المحددة حيث يضمن المدخل المعطى الناتج المعطى. كلا النموذجين قد حددا قدرة هذه الوكالات على معرفة كيفية أداء المهام المعقدة، والأدوات تتوسع في نطاق المهام التي يمكنها إتمامها، وكليهما يتطلبان مزيدًا من التطوير. بالنسبة للوكالات الرقمية لتصبح مفيدة خارج حالات استخدام العملات الرقمية المبتكرة على السلسلة، فإن التكامل والقبول الأوسع للعملات الرقمية كشكل للدفع، جنبًا إلى جنب مع وضوح التنظيم، ضروريان. ومع ذلك، مع تطوير هذه العناصر، فإن الوكالات على استعداد لتصبح بين أكبر المستهلكين للحوسبة اللامركزية وحلول zkML، حيث يستقبلون ويحلون أي مهمة بطريقة غير محددة تلقائياً.
تقدم الذكاء الاصطناعي نفس الابتكارات التي رأيناها في عالم العملات الرقمية، معززًا كل شيء بدءًا من تطوير البنية التحتية إلى تجربة المستخدم والوصول. ومع ذلك، ما زالت المشاريع في مراحل التطوير الأولية، وستكون التكاملات القريبة الأمد بين العملات الرقمية والذكاء الاصطناعي في المقام الأول مدفوعة بالتكاملات خارج السلسلة.
مثل منتجات مثل Copilot مُعدة لـ 'زيادة كفاءة المُطور بنسبة 10 مرات'، وقد أطلقت بالفعل منصات تطوير مُساعدة بالذكاء الاصطناعي في الطبقة 1 وتطبيقات DeFi بالتعاون مع شركات رئيسية مثل Microsoft. شركات مثل Cub3.ai و Test Machine تقوم بتطوير تكاملات الذكاء الاصطناعي لتدقيق العقود الذكية ومراقبة التهديدات في الوقت الحقيقي لتعزيز أمان السلسلة الأساسية. يتم تدريب الروبوتات الدردشة LLM باستخدام البيانات على السلسلة الأساسية، وثائق البروتوكول، والتطبيقات لتوفير قدرة الوصول المحسنة وتجربة المستخدم للمستخدمين.
تبقى التحديات الخاصة بالتكاملات المتقدمة أكثر تحديًا لإثبات أن تنفيذ حلول الذكاء الاصطناعي على السلسلة يمكن أن يكون ممكنًا تقنيًا واقتصاديًا. تطور الحوسبة اللامركزية و zkML ووكلاء الذكاء الاصطناعي يشير إلى القطاعات الرأسية الواعدة التي تمهد الطريق لمستقبل مترابط بشكل عميق للعملات الرقمية والذكاء الاصطناعي.
يمثل ظهور سلاسل الكتل العامة تقدما عميقا في تاريخ علوم الكمبيوتر ، في حين أن تطوير الذكاء الاصطناعي له تأثير كبير على عالمنا. تقدم تقنية Blockchain قوالب جديدة لتسوية المعاملات وتخزين البيانات وتصميم النظام ، بينما يمثل الذكاء الاصطناعي ثورة في الحوسبة والتحليل وتقديم المحتوى. تطلق الابتكارات في هذه الصناعات العنان لحالات استخدام جديدة يمكن أن تسرع من اعتماد كلا القطاعين في السنوات القادمة. يبحث هذا التقرير في التكامل المستمر للعملات المشفرة والذكاء الاصطناعي ، مع التركيز على حالات الاستخدام الجديدة التي تهدف إلى سد الفجوة بين الاثنين والاستفادة من نقاط قوتهما. يبحث على وجه التحديد في المشاريع التي تطور بروتوكولات الحوسبة اللامركزية ، والبنية التحتية للتعلم الآلي بدون معرفة (zkML) ، ووكلاء الذكاء الاصطناعي.
تقدم Cryptocurrency طبقة تسوية غير مصرح بها وغير موثوقة وقابلة للتركيب الذكاء الاصطناعي ، وفتح حالات الاستخدام مثل سهولة الوصول إلى الأجهزة من خلال أنظمة الحوسبة اللامركزية ، وبناء وكلاء الذكاء الاصطناعي قادرين على تنفيذ المهام المعقدة التي تتطلب تبادل القيمة ، وتطوير حلول الهوية والمصدر لمواجهة هجمات Sybil والتزييف العميق. يجلب الذكاء الاصطناعي إلى العملة المشفرة العديد من الفوائد نفسها التي شوهدت في Web 2.0 ، بما في ذلك تجارب المستخدم والمطور المحسنة من خلال نماذج اللغات الكبيرة مثل ChatGPT و Copilot ، وتحسين الوظائف وإمكانات الأتمتة بشكل كبير للعقود الذكية. توفر Blockchain بيئة شفافة وغنية بالبيانات اللازمة الذكاء الاصطناعي ، على الرغم من أن قوة الحوسبة المحدودة ل blockchain تشكل عائقا رئيسيا أمام التكامل المباشر لنماذج الذكاء الاصطناعي.
تدفع التجارب والتبني النهائي في التقاطع بين العملات الرقمية والذكاء الاصطناعي بنفس القوى التي تدفع أكثر حالات الاستخدام واعدة للعملات الرقمية: الوصول إلى طبقة تنسيق غير مرخصة وغير ثقة، تيسير نقل قيمة أفضل. نظرًا للإمكانات الهائلة، يحتاج أصحاب المصلحة في هذا المجال إلى فهم الطرق الأساسية التي تتقاطع فيها هذه التكنولوجيات.
الذكاء الاصطناعي هو استخدام الحساب والآلات لتقليد قدرة البشر على التفكير وحل المشكلات.
الشبكات العصبية هي طريقة لتدريب نماذج الذكاء الاصطناعي. تقوم بتشغيل المدخلات من خلال طبقات خوارزمية م diskrete، مصقولة حتى يتم إنتاج الإخراج المرغوب. تتكون الشبكات العصبية من معادلات تحتوي على أوزان يمكن تعديلها لتغيير الإخراج. قد تتطلب كمية كبيرة من البيانات والحسابات للتدريب لضمان إخراج دقيق. هذه هي واحدة من أكثر الطرق شيوعًا لتطوير نماذج الذكاء الاصطناعي (على سبيل المثال، يعتمد ChatGPT على عملية الشبكة العصبية استنادًا إلى Transformers).
التدريب هو عملية تطوير الشبكات العصبية ونماذج الذكاء الاصطناعي الأخرى. يتطلب كمية كبيرة من البيانات لتدريب النماذج لتفسير المدخلات بشكل صحيح وإنتاج نتائج دقيقة. خلال التدريب، يتم تعديل أوزان معادلة النموذج بشكل مستمر حتى يتم إنتاج مخرجات مرضية. قد يكون التدريب مكلفًا للغاية. على سبيل المثال، يستخدم ChatGPT عشرات الآلاف من وحدات معالجة الرسومات الخاصة به لمعالجة البيانات. الفِرَق التي تمتلك موارد أقل في كثير من الأحيان تعتمد على مزودي الحوسبة المتخصصة، مثل خدمات أمازون ويب، وAzure، ومزودي غوغل كلاود.
الاستدلال هو الاستخدام الفعلي لنماذج الذكاء الاصطناعي للحصول على النواتج أو النتائج (على سبيل المثال، باستخدام ChatGPT لإنشاء مخطط لورقة بحثية حول تقاطع العملات الرقمية والذكاء الاصطناعي). يُستخدم الاستدلال طوال عملية التدريب وفي المنتج النهائي. نظرًا لتكاليف الحساب، حتى بعد اكتمال التدريب، يمكن أن تكون تكاليف تشغيلها مرتفعة، على الرغم من أن كثافتها الحسابية أقل من التدريب.
تسمح الأدلة بعدم المعرفة (ZKP) بالتحقق من البيانات دون الكشف عن المعلومات الأساسية. يعد هذا مفيدًا في عالم العملات الرقمية لسببين رئيسيين: 1) الخصوصية و2) التوسيع. بالنسبة للخصوصية، يتيح للمستخدمين التعامل دون الكشف عن معلومات حساسة (على سبيل المثال، كمية ETH الموجودة في محفظة). أما بالنسبة للتوسيع، فإنه يسمح بإثبات الحسابات خارج السلسلة الرئيسية بسرعة أكبر من إعادة تنفيذ الحسابات. وهذا يتيح لسلاسل الكتل والتطبيقات تشغيل الحسابات بتكلفة أقل خارج السلسلة الرئيسية ثم التحقق من صحتها على السلسلة الرئيسية. للمزيد من المعلومات حول عدم المعرفة ودورها في محركات الأخلاق الافتراضية للإيثيريوم، انظر تقرير كريستين كيم حول zkEVMs: مستقبل قابلية توسيع الإيثيريوم.
المشاريع التي تدمج الذكاء الاصطناعي والعملات الرقمية ما زالت تبني البنية التحتية اللازمة لدعم تفاعلات الذكاء الاصطناعي على سلسلة الكتل بمقياس كبير.
تظهر أسواق الحوسبة اللامركزية لتوفير الأجهزة الفيزيائية الضخمة اللازمة لتدريب والاستنتاج من النماذج الذكية الصناعية، في المقام الأول على شكل وحدات المعالجة الرسومية (GPUs). تربط هذه الأسواق ذات الجانبين بين الأشخاص الذين يؤجرون والذين يسعون لاستئجار الحوسبة، مما يسهل نقل القيمة والتحقق من الحسابات. ضمن الحوسبة اللامركزية، تظهر عدة فئات فرعية تقدم وظائف إضافية. بالإضافة إلى الأسواق ثنائية الأطراف، تستعرض هذه التقرير أيضًا مزودي تدريب التعلم الآلي الذين يقدمون تدريبًا يمكن التحقق منه وضبطًا دقيقًا للنواتج، بالإضافة إلى المشاريع المخصصة لربط الحسابات وإنشاء النماذج لتمكين الذكاء الاصطناعي، والمعروفة في كثير من الأحيان بشبكات الحوافز الذكية.
zkML هي مجال انطلاق ناشئ للمشاريع التي تهدف إلى توفير نتائج نموذج قابلة للتحقق على السلسلة بشكل اقتصادي وفي الوقت المناسب. تمكن هذه المشاريع بشكل رئيسي التطبيقات من التعامل مع طلبات الحوسبة الثقيلة خارج السلسلة، ثم نشر النتائج القابلة للتحقق على السلسلة، مثبتة بأن عبء العمل خارج السلسلة كان كاملاً ودقيقاً. zkML مكلفة وتأخذ وقتاً حالياً ولكنها تُستخدم بشكل متزايد كحلاً. وهذا يظهر في الزيادة المتزايدة في عدد التكاملات بين مقدمي zkML وتطبيقات DeFi/الألعاب التي تتطلع إلى استغلال نماذج الذكاء الاصطناعي.
العرض الوفير للحساب والقدرة على التحقق من الحساب على السلسلة يفتح الباب أمام وكلاء الذكاء الاصطناعي على السلسلة. الوكلاء هم نماذج مدربة قادرة على تنفيذ الطلبات نيابة عن المستخدمين. تقدم الوكلاء الفرصة لتعزيز تجربة السلسلة، مما يتيح للمستخدمين تنفيذ المعاملات المعقدة ببساطة من خلال التحدث مع روبوت دردشة. ومع ذلك، حتى الآن، مشاريع الوكلاء ما زالت تركز على تطوير البنية التحتية والأدوات لنشر سهل وسريع.
يتطلب الذكاء الاصطناعي حسابا مكثفا لتدريب النماذج وتشغيل الاستدلال. على مدى العقد الماضي ، حيث أصبحت النماذج معقدة بشكل متزايد ، نما الطلب على الحوسبة بشكل كبير. على سبيل المثال ، لاحظت OpenAI أنه من عام 2012 إلى عام 2018 ، تضاعف الطلب الحسابي على نماذجها كل عامين ، وتحول إلى الضعف كل ثلاثة أشهر ونصف. أدى ذلك إلى زيادة الطلب على وحدات معالجة الرسومات ، حتى أن بعض عمال مناجم العملات المشفرة أعادوا استخدام وحدات معالجة الرسومات الخاصة بهم لتوفير خدمات الحوسبة السحابية. مع اشتداد المنافسة على الوصول الحسابي وارتفاع التكاليف ، تستفيد بعض المشاريع من تقنية التشفير لتقديم حلول الحوسبة اللامركزية. إنها توفر الحوسبة عند الطلب بأسعار تنافسية ، مما يمكن الفرق من تدريب النماذج وتشغيلها بتكلفة معقولة. في بعض الحالات ، قد تنطوي المقايضات على الأداء والأمن.
يعد الطلب على وحدات معالجة الرسومات الحديثة (على سبيل المثال ، تلك التي تنتجها Nvidia) كبيرا. في سبتمبر ، استحوذت Tether على حصة في شركة تعدين البيتكوين الألمانية Northern Data ، حيث ورد أنها أنفقت 420 مليون دولار لشراء 10000 وحدة معالجة رسومات H100 (واحدة من أكثر وحدات معالجة الرسومات تقدما للتدريب الذكاء الاصطناعي). يمكن أن يكون وقت الانتظار للحصول على أجهزة من الدرجة الأولى ستة أشهر على الأقل ، إن لم يكن أطول في كثير من الحالات. والأسوأ من ذلك ، غالبا ما يطلب من الشركات توقيع عقود طويلة الأجل لتأمين أحجام حسابية قد لا تستخدمها حتى. يمكن أن يؤدي ذلك إلى مواقف تتوفر فيها الموارد الحسابية ولكن لا يمكن الوصول إليها في السوق. تساعد أنظمة الحوسبة اللامركزية في معالجة أوجه القصور في السوق هذه من خلال إنشاء سوق ثانوية حيث يمكن لمالكي الحوسبة تأجير سعتهم الزائدة على الفور عند الإخطار ، وبالتالي إطلاق إمدادات جديدة.
إلى جانب التسعير التنافسي والوصول، فإن القيمة الأساسية المقترحة للحوسبة اللامركزية هي مقاومة الرقابة. يسيطر تطوير الذكاء الاصطناعي الحديث على يد الشركات التكنولوجية الكبيرة ذات القدرات الحسابية والوصول إلى البيانات دون منافسة متفوقة. وكانت أولى القضايا الرئيسية التي تم التركيز عليها في تقرير السنوي لفهرس الذكاء الاصطناعي لعام 2023 هي تزايد تفوق الصناعة على الأكاديمية في تطوير نماذج الذكاء الاصطناعي، مما يركز السيطرة في أيدي قادة تكنولوجيين قلة. وهذا يثير مخاوف حول إمكانية استخدامهم للتأثير بشكل كبير في تحديد القواعد والقيم التي تستند إليها نماذج الذكاء الاصطناعي، خاصة بعد دفع هذه الشركات التكنولوجية لتشديد اللوائح لتقييد تطوير الذكاء الاصطناعي الذي لا يمكن السيطرة عليه.
ظهرت عدة نماذج من الحوسبة اللامركزية في السنوات الأخيرة، كل منها لديه تركيز وتنازلاته الخاصة.
بشكل عام ، تعد مشاريع مثل Akash و io.net و iExec و Cudos تطبيقات للحوسبة اللامركزية ، حيث تقدم ما وراء البيانات والحلول الحسابية العامة ، والوصول إلى الحوسبة المتخصصة للتدريب الذكاء الاصطناعي والاستدلال. تبرز Akash باعتبارها منصة "السحابة الفائقة" الوحيدة مفتوحة المصدر بالكامل ، والتي تستخدم Cosmos SDK لشبكة إثبات الحصة. AKT ، رمز Akash الأصلي ، بمثابة طريقة دفع لتأمين الشبكة وتحفيز المشاركة. تم إطلاق شبكة Akash الرئيسية في عام 2020 ، وركزت في البداية على سوق الحوسبة السحابية بدون إذن ، والتي تتميز بخدمات التخزين وتأجير وحدة المعالجة المركزية. في يونيو 2023 ، قدم عكاش شبكة اختبار تتمحور حول وحدة معالجة الرسومات ، تلاها إطلاق شبكة رئيسية لوحدة معالجة الرسومات في سبتمبر ، مما يتيح التدريب الذكاء الاصطناعي والاستدلال على تأجير وحدات معالجة الرسومات.
يتألف نظام Akash البيئي من مشاركين أساسيين: المستأجرون ، الذين يبحثون عن موارد الحوسبة ، ومقدمو الخدمات ، موردو الحوسبة. تسهل عملية المزاد العكسي مطابقة المستأجرين ومقدمي الخدمات، حيث يقوم المستأجرون بنشر متطلبات الحوسبة الخاصة بهم، بما في ذلك مواقع الخوادم المفضلة أو أنواع الأجهزة وميزانيتهم. ثم يقوم مقدمو الخدمات بالمزايدة ، مع منح أقل مزايد المهمة. يحافظ المدققون على سلامة الشبكة ، مع الحد الأقصى الحالي عند 100 مدقق ، ومن المخطط أن يزداد بمرور الوقت. المشاركة كمدقق مفتوحة لأولئك الذين يراهنون على AKT أكثر من المدقق الحالي الأقل رهانا. يمكن لحاملي AKT تفويض الرموز المميزة الخاصة بهم إلى المدققين ، مع رسوم المعاملات ومكافآت الكتلة الموزعة في AKT. علاوة على ذلك ، لكل عقد إيجار ، تكسب شبكة عكاش "معدل أخذ" ، يقرره المجتمع ، ويوزع على حاملي AKT.
تهدف السوق الثانوية للحوسبة اللامركزية إلى معالجة أوجه القصور في السوق الحاسوبية الحالية ، حيث تؤدي قيود العرض إلى قيام الشركات بتخزين الموارد بما يتجاوز احتياجاتها ، كما أن العقود طويلة الأجل مع مزودي الخدمات السحابية تحد من العرض. تفتح منصات الحوسبة اللامركزية إمدادا جديدا ، مما يتيح لأي شخص لديه احتياجات حسابية أن يصبح مزودا.
يبقى أن نرى ما إذا كانت الزيادة في الطلب على وحدات معالجة الرسومات للتدريب الذكاء الاصطناعي تترجم إلى استخدام مستدام للشبكة على أكاش. تاريخيا ، قدمت عكاش خدمات السوق القائمة على وحدة المعالجة المركزية بخصم 70-80٪ مقارنة بالبدائل المركزية ، ومع ذلك فإن استراتيجية التسعير هذه لم تدفع بشكل كبير إلى التبني. استقر نشاط الشبكة ، الذي تم قياسه من خلال عقود الإيجار النشطة ، بمتوسط 33٪ حوسبة ، و 16٪ ذاكرة ، و 13٪ استخدام التخزين بحلول الربع الثاني من عام 2023 ، وهو أمر مثير للإعجاب للاعتماد على السلسلة ولكنه يشير إلى أن العرض لا يزال يفوق الطلب. بعد مرور نصف عام على إطلاق شبكة GPU ، من السابق لأوانه إجراء تقييم نهائي للاعتماد على المدى الطويل ، على الرغم من أن العلامات المبكرة تظهر متوسط استخدام GPU بنسبة 44٪ ، مدفوعا بشكل أساسي بالطلب على وحدات معالجة الرسومات عالية الجودة مثل A100 ، والتي تم تأجير أكثر من 90٪ منها.
زادت نفقات أكاش اليومية بشكل كبير تقريبًا منذ إدخال وحدات المعالجة الرسومية، نسبة جزئية إلى زيادة استخدام الخدمات الأخرى، خاصة وحدات المعالجة المركزية، ولكن السبب الرئيسي هو استخدام وحدات المعالجة الرسومية الجديدة.
التسعير تنافسي مع، أو في بعض الحالات أكثر تكلفة من النظراء المركزية مثل Lambda Cloud و Vast.ai. الطلب الكبير على وحدات معالجة الرسومات عالية الجودة، مثل H100 و A100، يعني أن معظم أصحاب مثل هذا المعدات ليسوا مهتمين بإدراجها في سوق تنافسي الأسعار.
على الرغم من الأرباح الأولية، تظل العقبات التبني. يجب على شبكات الحوسبة اللامركزية اتخاذ خطوات إضافية لتوليد الطلب والعرض، مع فرق تبحث في كيفية جذب مستخدمين جدد بشكل أفضل. على سبيل المثال، في بداية عام 2024، وافقت شبكة Akash على مقترح 240، مما زاد من إطلاق عملات AKT لمزودي وحدات GPU لتحفيز المزيد من العرض، خاصة بالنسبة لوحدات GPU عالية الجودة. كما تعمل الفرق على نماذج البرهان الأولي لإظهار قدرات شبكاتها المباشرة للمستخدمين المحتملين. تقوم Akash بتدريب نماذجها الأساسية وقد أطلقت منتجات الدردشة الآلية وإنشاء الصور التي تستخدم وحدات GPU Akash. بالمثل، قام io.net بتطوير نموذج انتشار مستقر ويطلق وظائف الشبكة الجديدة لتقليد أداء الشبكة بشكل أفضل وتوسيعه.
بالإضافة إلى منصات الحوسبة العامة التي يمكن أن تلبي متطلبات الذكاء الاصطناعي، يظهر أيضًا مجموعة من موردي وحدات معالجة الرسوميات المهنيين المتخصصين في تدريب نماذج التعلم الآلي. على سبيل المثال، تُركز شركة Gensyn على "تنسيق القوة والأجهزة لبناء الذكاء التعاوني"، مع فلسفة "إذا أراد شخص ما تدريب شيء ما وكان هناك شخص مستعد لتدريبه، فيجب السماح بهذا التدريب أن يحدث."
هذا البروتوكول يشمل أربع مشاركين رئيسيين: المقدمين، والحلول، والموثقين، والمبلغين. يقوم المقدمون بتقديم المهام مع طلبات التدريب إلى الشبكة. تشمل هذه المهام الأهداف التدريبية، والنماذج التي يجب تدريبها، وبيانات التدريب. كجزء من عملية التقديم، يجب على المقدمين دفع تكلفة الحساب الحسابية المقدرة المطلوبة من قبل الحلول.
بعد التقديم، يتم تعيين المهام لحل المشكلات الذين يقومون فعلياً بتدريب النموذج. ثم يقوم حل المشكلات بتقديم المهام المكتملة إلى المحققين، الذين يتحملون مسؤولية التحقق من التدريب للتأكد من أنه تم اكتماله بشكل صحيح. يتم تكليف المبلغين بضمان تصرف المحققين بصدق. ولتحفيز المبلغين على المشاركة في الشبكة، تخطط جينسين لتقديم عروض أدلة غير صحيحة بشكل منتظم، مكافأة المبلغين الذين يكتشفونها.
بالإضافة إلى توفير الحسابات لأعباء العمل المتعلقة بالذكاء الاصطناعي، القيمة المقترحة الرئيسية لـ Gensyn هي نظام التحقق الخاص بها، والذي لا يزال قيد التطوير. التحقق ضروري لضمان أن الحساب الخارجي من مزودي وحدة معالجة الرسومات يتم تنفيذه بشكل صحيح (أي ضمان تدريب نماذج المستخدمين بالطريقة التي يرغبون فيها). يعالج Gensyn هذه المشكلة بنهج فريد، يستخدم أساليب تحقق جديدة تسمى "إثباتات التعلم الاحتمالية، وبروتوكولات محددة قائمة على الرسوم البيانية، وألعاب حوافز ذات نمط Truebit". هذا نموذج حل متفائل يسمح للمحققين بتأكيد أن الحلول قد قامت بتشغيل النموذج بشكل صحيح دون الحاجة إلى إعادة تشغيل النموذج بالكامل بأنفسهم، وهو عملية مكلفة وغير فعالة.
بالإضافة إلى طريقة التحقق الابتكارية الخاصة بها، تدعي Gensyn أيضًا أنها فعالة من حيث التكلفة مقارنة بالبدائل المركزية والمنافسين في مجال العملات الرقمية - مما يقدم أسعار تدريب ML تصل إلى 80% أرخص من AWS، مع تفوق مشروعات مماثلة مثل Truebit في الاختبارات.
سواء يمكن تكرار هذه النتائج الأولية على نطاق واسع في الشبكات اللامركزية لا يزال مجهولًا. تأمل Gensyn في الاستفادة من القدرة الحوسبية الزائدة لموفري الخدمات مثل مراكز البيانات الصغيرة ومستخدمي التجزئة، وفي نهاية المطاف من الأجهزة المحمولة الصغيرة مثل الهواتف الذكية. ومع ذلك، كما يعترف فريق Gensyn بأن الاعتماد على موفري الحوسبة المتنوعين يُعرض لبعض التحديات الجديدة.
بالنسبة لمقدمي الخدمات المركزية مثل Google Cloud و Coreweave، تكلفة الحوسبة مكلفة، ولكن التواصل بين الحوسبات (نطاق النطاق الترددي والتأخير) رخيص. تم تصميم هذه الأنظمة لتسهيل التواصل بين الأجهزة بأسرع ما يمكن. يقوم Gensyn بتعطيل هذا الإطار عن طريق تقليل تكاليف الحساب عن طريق السماح لأي شخص في العالم بتقديم وحدات معالجة الرسومات، ولكن في الوقت نفسه يزيد من تكاليف التواصل، حيث يجب على الشبكة الآن تنسيق وظائف الحساب عبر أجهزة مختلفة وبعيدة. لم يتم إطلاق Gensyn بعد، ولكنه يمثل دليلاً على الفكرة التي يمكن تحقيقها عند بناء بروتوكول تدريب التعلم الآلي الموزع.
تقدم منصات الحوسبة اللامركزية أيضًا إمكانية تصميم أساليب لإنشاء الذكاء الاصطناعي. Bittensor هو بروتوكول حوسبة لامركزية مبني على Substrate، يحاول الإجابة على السؤال، "كيف نحول الذكاء الاصطناعي إلى طريقة تعاونية؟" يهدف Bittensor إلى تحقيق لامركزية وتجميعية إنتاج الذكاء الاصطناعي. تم إطلاقه في عام 2021، ويأمل في الاستفادة من قوة نماذج التعلم الآلي التعاوني للتكرار بشكل مستمر وإنتاج ذكاء اصطناعي أفضل.
يستوحي Bittensor من Bitcoin، حيث يكون لديه عملة أصلية تسمى TAO، وتكون حد الإمداد لها 21 مليونًا ودورة تقسيم كل أربع سنوات (تم تعيين القسم الأول لعام 2025). على عكس استخدام دليل العمل لتوليد الأرقام العشوائية الصحيحة وكسب مكافآت الكتلة، يعتمد Bittensor على "دليل الذكاء"، حيث يتطلب من المنقبين تشغيل النماذج لتوليد الإخراجات ردًا على طلبات الاستدلال.
تحفيز الذكاء
في البداية ، اعتمد Bittensor على نموذج مزيج من الخبراء (MoE) لتوليد المخرجات. عند تقديم طلب استدلال ، لا يعتمد نموذج MoE على نموذج معمم ولكنه يعيد توجيه الطلب إلى النموذج الأكثر دقة لنوع الإدخال المحدد. تخيل بناء منزل ، حيث تقوم بتعيين خبراء مختلفين لجوانب مختلفة من عملية البناء (على سبيل المثال ، المهندسين المعماريين والمهندسين والرسامين وعمال البناء ، وما إلى ذلك). تطبق وزارة التربية والتعليم هذا على نماذج التعلم الآلي ، في محاولة للاستفادة من مخرجات النماذج المختلفة بناء على المدخلات. كما أوضح مؤسس Bittensor Ala Shaabana ، فإن هذا يشبه "التحدث إلى غرفة مليئة بالأشخاص الأذكياء للحصول على أفضل إجابة ، بدلا من التحدث إلى شخص واحد". نظرا للتحديات في ضمان التوجيه الصحيح ومزامنة الرسائل مع النموذج الصحيح والحوافز ، فقد تم تعليق هذه الطريقة حتى مزيد من التطوير للمشروع.
في شبكة Bittensor ، هناك مشاركان رئيسيان: المدققون وعمال المناجم. يرسل المدققون طلبات الاستدلال إلى عمال المناجم ، ويراجعون مخرجاتهم ، ويرتبونها بناء على جودة ردودهم. لضمان موثوقية تصنيفاتهم ، يتم منح المدققين درجة "vtrust" بناء على مدى اتساق تصنيفاتهم مع المدققين الآخرين. كلما ارتفعت درجة vtrust للمدقق ، زادت انبعاثات TAO التي يتلقونها. هذا لتحفيز المدققين للتوصل إلى توافق في الآراء بشأن تصنيفات النموذج بمرور الوقت ، حيث كلما زاد عدد المدققين الذين يتفقون على التصنيفات ، زادت درجاتهم الفردية في vtrust.
يعتبر المُنقبون، المعروفين أيضًا بالخوادم، من المشاركين في الشبكة الذين يقومون بتشغيل نماذج التعلم الآلي الفعلية. يتنافسون لتوفير أكثر النتائج دقةً لاستفسارات الموثقين، وكلما زادت دقة النتائج، زادت الإنبعاثات من TAO التي يكسبونها. يحرر المنقبون لتوليد هذه النتائج كما يرون مناسبًا. على سبيل المثال، في المستقبل، من الممكن تمامًا أن يكون لدى منقبي Bittensor نماذج تم تدريبها مسبقًا على Gensyn واستخدامها لكسب إنبعاثات TAO.
اليوم، تحدث معظم التفاعلات مباشرة بين المحققين والمنقبين. يقدم المحققون المدخلات إلى المنقبين ويطلبون النواتج (أي تدريب النموذج). بمجرد أن يستعلم المحققون المنقبين على الشبكة ويتلقون ردودهم، يصنفون المنقبين ويقدمون تصنيفاتهم إلى الشبكة.
التفاعل بين المحققين (الذين يعتمدون على PoS) والمنقبين (الذين يعتمدون على نموذج البرهان، وهو شكل من أشكال PoW) معروف باسم توافق Yuma. يهدف إلى تحفيز المنقبين على إنتاج أفضل النتائج لكسب انبعاثات TAO وتحفيز المحققين على ترتيب نتائج المنقبين بدقة، مما يؤدي إلى زيادة درجات الثقة وزيادة مكافآت TAO الخاصة بهم، وبالتالي تشكيل آلية توافق للشبكة.
الشبكات الفرعية والتطبيقات
تتضمن التفاعلات على Bittensor في الغالب تقديم المحققين للطلبات إلى المنقبين وتقييم إخراجهم. ومع ذلك، مع تحسن جودة المنقبين المساهمين ونمو الذكاء العام للشبكة، يقوم Bittensor بإنشاء طبقة تطبيق على رأس كومة البرامج الحالية بحيث يمكن للمطورين بناء تطبيقات تستعلم عن شبكة Bittensor.
في أكتوبر 2023، قدم Bittensor الشبكات الفرعية من خلال ترقية الثورة، مما يشكل خطوة هامة نحو تحقيق هذا الهدف. الشبكات الفرعية هي شبكات منفصلة على Bittensor تحفز على سلوكيات محددة. فتحت الثورة الشبكة لأي شخص مهتم بإنشاء شبكات فرعية. خلال أشهر من إطلاقها، تم إطلاق أكثر من 32 شبكة فرعية، بما في ذلك شبكات فرعية لتحفيز النصوص، واستخراج البيانات، وإنشاء الصور، والتخزين. مع نضوج الشبكات الفرعية وتصبح جاهزة للمنتج، سيقوم مبتكرو الشبكات الفرعية أيضًا بإنشاء تكاملات التطبيقات، مما يتيح للفرق بناء تطبيقات تستعلم عن شبكات فرعية محددة. بعض التطبيقات، مثل الروبوتات الدردشة، ومولدات الصور، وروبوتات ردود تويتر، وأسواق التنبؤ، موجودة ولكن لا توجد حوافز رسمية بعد التمويل من مؤسسة Bittensor للمحققين لقبول وتوجيه هذه الاستفسارات.
لتوضيح أكثر، فيما يلي مثال على كيفية عمل Bittensor بمجرد دمج التطبيقات في الشبكة.
يكسب الشبكات الفرعية TAO استنادًا إلى الأداء الذي يُقيّمه الشبكة الجذرية. تعمل الشبكة الجذرية، والتي توجد فوق جميع الشبكات الفرعية، في الأساس كشبكة فرعية خاصة وتُدار من قبل أكبر 64 محققًا للشبكات الفرعية من حيث الرهان. يُصنف محققو الشبكة الجذرية الشبكات الفرعية استنادًا إلى أدائها ويُخصصون بانتظام انبعاثات TAO للشبكات الفرعية. وبهذه الطريقة، تعمل الشبكات الفرعية الفردية كمنقبين لصالح الشبكة الجذرية.
رؤية بيتنسور
لا يزال Bittensor يعاني من آلام متزايدة لأنه يوسع وظائف البروتوكول لتحفيز توليد الذكاء عبر شبكات فرعية متعددة. يبتكر عمال المناجم باستمرار طرقا جديدة لمهاجمة الشبكة للحصول على المزيد من مكافآت TAO ، مثل التغيير الطفيف في ناتج الاستدلالات عالية التصنيف التي تديرها نماذجهم ثم تقديم متغيرات متعددة. لا يمكن تقديم مقترحات الحوكمة التي تؤثر على الشبكة بأكملها وتنفيذها إلا من قبل Triumvirate ، المكون بالكامل من أصحاب المصلحة من مؤسسة Opentensor (على وجه الخصوص ، تتطلب المقترحات موافقة مجلس الشيوخ Bittensor ، المكون من مدققي Bittensor ، قبل التنفيذ). ويجري تعديل الرموز المميزة للمشروع لتعزيز الحوافز لاستخدام TAO عبر الشبكة الفرعية. كما اكتسب المشروع سمعة سيئة بسبب نهجه الفريد ، حيث صرح الرئيس التنفيذي لأحد أشهر مواقع الذكاء الاصطناعي ، HuggingFace ، بأن Bittensor يجب أن تضيف مواردها إلى الموقع.
في مقال حديث بعنوان 'نموذج Bittensor' نشره المطورون الأساسيون، حدد الفريق رؤية Bittensor لتصبح في نهاية المطاف 'عقلانية لما يتم قياسه.' نظريًا، يمكن أن يمكّن هذا Bittensor من تطوير الشبكات الفرعية التي تحفز أي نوع من السلوك المدعوم بواسطة TAO. لا تزال هناك قيود عملية كبيرة - ومن أبرزها إثبات أن هذه الشبكات يمكن أن تتوسع للتعامل مع مجموعة متنوعة من العمليات وأن الحوافز المحتملة تدفع التقدم خارج المنتجات المركزية.
يقدم القسم أعلاه لمحة عميقة عن مختلف أنواع بروتوكولات الذكاء الاصطناعي (AI) اللامركزية التي تخضع حاليًا للتطوير. في مراحلها الأولى من التطوير والاعتماد، تُوضع الأسس لنظام بيئي قد يسهل في نهاية المطاف إنشاء "بنية ذكاء اصطناعي"، على غرار مفهوم "موني ليجوس" في DeFi. تُمكّن قابلية الإرتباط الخاصة بسلاسل الكتل اللامركزية من إمكانية بناء كل بروتوكول على آخر، مما يخلق نظام بيئي للذكاء الاصطناعي اللامركزي شاملًا أكثر.
على سبيل المثال، هكذا قد يتفاعل أكاش وجينسين وبيتنسور معًا للرد على طلبات الاستدلال.
من الأهمية بمكان أن نفهم أن هذا مجرد مثال واحد على ما يمكن أن يحدث في المستقبل ، وليس تمثيلا للنظام البيئي الحالي أو الشراكات الحالية أو النتائج المحتملة. إن قيود قابلية التشغيل البيني والاعتبارات الأخرى الموضحة أدناه تحد بشكل كبير من إمكانيات التكامل اليوم. علاوة على ذلك ، فإن تجزئة السيولة والحاجة إلى استخدام رموز متعددة يمكن أن تضر بتجربة المستخدم ، وهي نقطة لاحظها مؤسسو Akash و Bittensor.
بالإضافة إلى مجال الحوسبة، تم تقديم العديد من خدمات البنية التحتية اللامركزية الأخرى لدعم نظام الذكاء الاصطناعي الناشئ ضمن مجال العملات الرقمية. تتجاوز قائمة جميع هذه الخدمات نطاق هذا التقرير، ولكن بعض الأمثلة المثيرة والموضحة تشمل:
بشكل عام، تشير هذه الأمثلة إلى الفرص الشبه لامحدودة لاستكشاف نماذج السوق اللامركزية التي تدعم نماذج الذكاء الاصطناعي أو البنية التحتية الطرفية اللازمة لتطويرها. حاليًا، معظم هذه المشاريع في مرحلة إثبات المفهوم وتتطلب المزيد من الأبحاث والتطوير لإثبات أنها يمكن أن تعمل على النطاق المطلوب لتوفير خدمات الذكاء الاصطناعي الشاملة.
منتجات الحوسبة اللامركزية لا تزال في مراحل التطوير الأولية. لقد بدأت للتو في إطلاق قدرات الحوسبة على أحدث مستوى، قادرة على تدريب نماذج الذكاء الاصطناعي الأقوى في الإنتاج. لكي تحصل على حصة سوق معنوية، يجب عليها أن تظهر مزايا فعلية على البدائل المركزية. من الحوافز المحتملة لتبني أوسع تشمل:
العقود الذكية هي ركيزة أساسية في أي نظام بلوكشين. تنفذ تلقائيًا تحت مجموعة من الشروط المحددة، مما يقلل أو يقضي على الحاجة إلى الأطراف الثالثة الموثوق بها، مما يمكن من خلق تطبيقات لامركزية معقدة، مثل تلك الموجودة في مجال العملات الرقمية. ومع ذلك، فإن وظيفة العقود الذكية مازالت محدودة لأنها تعمل بناءً على معلمات محددة مسبقًا يجب تحديثها.
على سبيل المثال، يتم نشر عقد ذكي لبروتوكول الإقراض/الاقتراض، الذي يحتوي على مواصفات حول متى يجب تصفية المراكز استنادًا إلى معدلات قيمة القرض الخاصة. بينما يكون مفيدًا في البيئات الثابتة، إلا أن هذه العقود الذكية تحتاج إلى تحديثات مستمرة للتكيف مع التغييرات في تحمل المخاطر في الحالات الديناميكية، مما يعرض تحديات للعقود غير المدارة من خلال عمليات مركزية. على سبيل المثال، قد لا تستجيب منظمات العمل اللاإداري التي تعتمد على عمليات الحوكمة اللاإدارية بسرعة كافية للمخاطر النظامية.
يُعدّ دمج الذكاء الاصطناعي (أي نماذج التعلم الآلي) في العقود الذكية وسيلة محتملة لتعزيز الوظائف والأمان والكفاءة بينما يتم تحسين تجربة المستخدم العامة. ومع ذلك، تقدم هذه التكاملات أيضًا مخاطر إضافية، حيث يصعب التأكد من عدم استغلال النماذج الأساسية لهذه العقود الذكية أو فشلها في تفسير الحالات الطويلة الذيل (نظرًا لندرة البيانات الإدخالية، فإن الحالات الطويلة الذيل صعبة للنماذج في التدريب عليها).
يتطلب تعلم الآلة حسابات كبيرة لتشغيل نماذج معقدة، مما يجعل من غير العملي تشغيل نماذج الذكاء الاصطناعي مباشرة في العقود الذكية بسبب التكاليف العالية. على سبيل المثال، سيجد بروتوكول ديفاي يقدم نماذج تحسين العائد صعوبة في تشغيل هذه النماذج في السلسلة دون تحمل رسوم الغاز الحظرية. إحدى الحلول هي زيادة قدرات الحساب الخلفية للسلسلة. ومع ذلك، يرفع هذا أيضًا متطلبات المحققين في السلسلة، مما قد يضر باللامركزية. بدلاً من ذلك، يقوم بعض المشاريع باستكشاف استخدام zkML للتحقق من الإخراج بطريقة غير معتمدة على الثقة دون الحاجة إلى حساب مكثف على السلسلة.
مثال شائع يوضح فائدة zkML هو عندما يحتاج المستخدمون إلى تشغيل البيانات من خلال النماذج والتحقق من أن أقرانهم قد قاموا فعلاً بتشغيل النموذج الصحيح. يمكن للمطورين استخدام مزودي الحوسبة اللامركزية لتدريب نماذجهم أن يشعروا بالقلق بشأن تقليص تكاليف هؤلاء المزودين عن طريق استخدام نماذج أرخص تنتج مخرجات تحتوي على اختلافات شبه لا يمكن ادراكها. يسمح zkML لمزودي الحوسبة بتشغيل البيانات من خلال نماذجهم ثم توليد الأدلة التي يمكن التحقق منها على السلسلة، مثبتاً أن مخرجات النموذج للمدخلات المعطاة صحيحة. في هذ scen, يحصل مزود النموذج على ميزة إضافية بأن يكون قادراً على تقديم نموذجه من دون الكشف عن الأوزان الأساسية التي أنتجت النواتج.
العكس ممكن أيضًا. إذا كان الأشخاص يرغبون في تشغيل النماذج على بياناتهم ولكنهم لا يرغبون في منح مشاريع النماذج إمكانية الوصول إلى بياناتهم بسبب مخاوف الخصوصية (على سبيل المثال، في الفحوصات الطبية أو المعلومات الخاصة بالأعمال الخاصة)، فيمكنهم تشغيل النموذج على بياناتهم دون مشاركة البيانات، ثم التحقق من خلال البراهين أنهم قاموا بتشغيل النموذج الصحيح. توسعت هذه الإمكانيات بشكل كبير في مجال التصميم لدمج وظائف الذكاء الاصطناعي والعقود الذكية من خلال معالجة القيود الحسابية المربكة.
نظرًا لمرحلة البداية لمجال zkML ، يتم التركيز بشكل أساسي على بناء البنية التحتية والأدوات التي تحتاجها الفرق لتحويل نماذجها ونواتجها إلى أدلة يمكن التحقق منها على السلسلة. تجري هذه المنتجات تجريد الجوانب الخاصة بالمعرفة الصفرية قدر الإمكان.
EZKL و Giza هما مشروعان يقومان ببناء أدوات مثل هذه عن طريق توفير أدلة قابلة للتحقق على تنفيذ نموذج تعلم الآلة. كلاهما يساعد الفرق في بناء نماذج تعلم الآلة لضمان أن يمكن تنفيذ هذه النماذج بطريقة تسمح بالتحقق من النتائج على السلسلة بطريقة موثوقة. كلا المشروعين يستخدمان Open Neural Network Exchange (ONNX) لتحويل نماذج تعلم الآلة المكتوبة بلغات شائعة مثل TensorFlow و Pytorch إلى تنسيق قياسي. ثم يخرجون إصدارات من هذه النماذج تنشئ أيضًا أدلة zk أثناء التنفيذ. يعتبر EZKL مفتوح المصدر، مما ينتج عنه zk-SNARKs، في حين أن Giza مغلق المصدر، مما ينتج عنه zk-STARKs. كلا المشروعين حاليًا متوافقين فقط مع EVM.
في الأشهر الأخيرة، حققت EZKL تقدمًا كبيرًا في تعزيز حلول zkML، مركزة بشكل رئيسي على تقليل التكاليف، وتحسين الأمان، وتسريع إنشاء الدليل. على سبيل المثال، في نوفمبر 2023، قامت EZKL بدمج مكتبة GPU مفتوحة المصدر جديدة خفضت وقت إثبات التجميع بنسبة 35%؛ في يناير، أصدرت EZKL Lilith، وهو حل برمجي لدمج مجموعات الحوسبة العالية الأداء وتنظيم أنظمة العمل المتزامنة عند استخدام إثباتات EZKL. يكمن تفرد جيزا في توفير أدوات لإنشاء نماذج التعلم الآلي القابلة للتحقق والتخطيط لتنفيذ ما يعادل web3 لـ Hugging Face، وافتتاح سوق للمستخدم للتعاون ومشاركة النماذج zkML، ودمج منتجات الحوسبة اللامركزية في نهاية المطاف. في يناير، نشرت EZKL تقييم مقايس يقارن أداء EZKL وجيزا وRiscZero (كما هو موضح أدناه)، مما يظهر أوقات إثبات أسرع واستخدام الذاكرة.
تعمل Modulus Labs حاليا على تطوير تقنية جديدة لإثبات المعرفة الصفرية (zk) مصممة خصيصا لنماذج الذكاء الاصطناعي. أصدرت Modulus ورقة بعنوان "التكلفة الذكية" ، والتي تعني أن تشغيل نماذج الذكاء الاصطناعي على السلسلة يتكبد تكاليف باهظة للغاية. تقيس هذه الورقة ، التي نشرت في يناير 2023 ، أنظمة إثبات zk الحالية لتحديد التحسينات في قدرة إثباتات zk والاختناقات داخل نماذج الذكاء الاصطناعي. يكشف أن المنتجات الحالية باهظة الثمن وغير فعالة لتطبيقات الذكاء الاصطناعي واسعة النطاق. بناء على البحث الأولي ، أطلقت Modulus Remainder في نوفمبر ، وهو برنامج متخصص في zk يهدف إلى تقليل التكلفة ووقت الإثبات لنماذج الذكاء الاصطناعي ، مما يجعل المشاريع مجدية اقتصاديا للاندماج على نطاق واسع في العقود الذكية. عملهم مملوك ، مما يجعل من المستحيل قياس الحلول المذكورة ، ولكن تم الاستشهاد به مؤخرا في منشور مدونة فيتاليك حول التشفير والذكاء الاصطناعي.
تطوير الأدوات والبنية التحتية أمر حاسم لنمو مستقبل مساحة zkML، حيث يمكن أن يقلل بشكل كبير من الاحتكاك المتضمن في نشر الحوسبات الخارجية التي يمكن التحقق منها والحاجة إلى فرق zk. إن إنشاء واجهات آمنة للممارسين الذين ليسوا من أصل العملات الرقمية في تعلم الآلة لجلب نماذجهم على سلسلة الكتل سيمكن التطبيقات من تجربة حالات استخدام حقًا جديدة. بالإضافة إلى ذلك، تعالج هذه الأدوات عقبة كبيرة أمام اعتماد zkML بشكل أوسع: نقص المطورين الملمين الذين يهتمون بالعمل في تقاطع الدليل الصفري، وتعلم الآلة، والتشفير.
الحلول الأخرى في التطوير، المشار إليها بـ 'coprocessors' (مثل RiscZero، Axiom، و Ritual)، تخدم أدوارًا مختلفة، بما في ذلك التحقق من الحسابات خارج السلسلة على السلسلة. مثل EZKL، Giza، و Modulus، هدفهم هو تجريد عملية إنشاء البرهان zk بالكامل، وإنشاء آلات افتراضية تعرف على الصفر قادرة على تنفيذ برامج خارج السلسلة وإنشاء بروفات يمكن التحقق منها على السلسلة. RiscZero و Axiom مخصصة لنماذج الذكاء الاصطناعي البسيطة ك coprocessors أكثر عامة الغرض، بينما تم بناء Ritual خصيصًا للاستخدام مع نماذج الذكاء الاصطناعي.
أول حالة لـ Ritual، Infernet، تتضمن Infernet SDK الذي يسمح للمطورين بتقديم طلبات استنتاج إلى الشبكة واستلام النتائج والأدلة الاختيارية بدلاً من ذلك. تقوم عقدة Infernet بمعالجة هذه الحسابات خارج السلسلة قبل إرجاع النتائج. على سبيل المثال، يمكن لمنظمة ذاتية الحكم (DAO) إنشاء عملية تضمن أن جميع المقتراحات الجديدة للحوكمة تفي بشروط معينة قبل التقديم. في كل مرة يتم فيها تقديم مقترح جديد، يُشغل العقد الحكومي طلب استنتاج من خلال Infernet، مستدعيًا نموذجًا ذكيًا تم تدريبه خصيصًا لحوكمة DAO. يُراجع هذا النموذج المقترح لضمان تلبية جميع المعايير اللازمة ويرجع النتائج والأدلة للموافقة على تقديم المقترح أو رفضه.
في السنة القادمة، يخطط فريق Ritual لإدخال المزيد من الميزات، مشكِّلا طبقة بنية تحتية تُعرف باسم سوبرشين Ritual. يمكن دمج العديد من المشاريع المناقشة كمزودي خدمات في Ritual. لقد قام فريق Ritual بالفعل بالتكامل مع EZKL لتوليد البراهين وقد يضيف قريبًا ميزات من مزودي خدمات رائدين آخرين. يمكن أيضًا لعُقد Infernet على Ritual الاستفادة من وحدات معالجة الرسوميات Akash أو io.net واستعلام النماذج التدريبية على الشبكة الفرعية Bittensor. هدفهم النهائي هو أن يصبحوا مزود البنية التحتية المفضل للذكاء الاصطناعي المفتوح، وتقديم خدمات للتعلم الآلي ومهام أخرى متعلقة بالذكاء الاصطناعي لأي شبكة وأي عبء عمل.
zkML يساعد في التوفيق بين تناقض بين سلسلة الكتل، التي تعاني من قيود الموارد بشكل أساسي، والذكاء الاصطناعي، الذي يتطلب موارد حوسبة وبيانات كبيرة بشكل كبير. كمؤسس لشركة جيزا يقول، "حالات الاستخدام غنية للغاية… إنها تشبه قليلاً طرح حالات الاستخدام للعقود الذكية في الأيام الأولى لإيثريوم… ما نقوم به هو مجرد توسيع حالات الاستخدام للعقود الذكية". ومع ذلك، كما لوحظ، يحدث التطوير الحالي بشكل أساسي على مستوى الأدوات والبنية التحتية. لا تزال التطبيقات في مرحلة الاستكشاف، مع واجهة الفرق تحدي إثبات أن القيمة التي تولدها تنفيذ النماذج باستخدام zkML تفوق تعقيدها وتكلفتها.
التطبيقات الحالية تشمل:
لا يزال zkML تجريبيا ، حيث تركز معظم المشاريع على بناء بدائيات البنية التحتية وإثبات المفهوم. تشمل التحديات الحالية التكاليف الحسابية ، وقيود الذاكرة ، وتعقيد النموذج ، والأدوات والبنية التحتية المحدودة ، ومواهب المطورين. باختصار ، هناك عمل كبير يتعين القيام به قبل تنفيذ zkML على النطاق المطلوب من قبل المنتجات الاستهلاكية.
ومع ذلك، مع نضوج المجال ومعالجة هذه القيود، سيصبح zkML عنصرًا رئيسيًا في دمج الذكاء الاصطناعي مع التشفير. في جوهره، يعد zkML بجلب أي مقياس من الحسابات خارج السلسلة إلى السلسلة، مع الحفاظ على تأكيدات الأمان نفسها أو ما يشابه تشغيل داخل السلسلة. ومع ذلك، قبل تحقيق هذه الرؤية، سيستمر المعتمدون المبكرون على التكنولوجيا في موازنة خصوصية zkML وأمانها مقابل كفاءة البدائل.
وكلاء الذكاء الاصطناعي
واحدة من أكثر التكاملات مثيرة للاهتمام بين الذكاء الاصطناعي والعملات الرقمية هي التجربة المستمرة مع وكلاء الذكاء الاصطناعي. الوكلاء هم روبوتات مستقلة قادرة على استقبال المهام وتفسيرها وتنفيذها باستخدام نماذج الذكاء الاصطناعي. يمكن أن يشمل هذا وجود مساعد شخصي متاح في جميع الأوقات، مضبط بدقة وفقًا لتفضيلاتك، إلى توظيف وكيل مالي لإدارة وضبط محفظة استثماراتك استنادًا إلى تفضيلات المخاطر الخاصة بك.
نظرًا لأن العملات الرقمية توفر بنية تحتية للدفع غير المحظورة وغير الموثوقة، يمكن دمج الوكلاء والعملات الرقمية بشكل جيد. بمجرد تدريبهم، سيكون لدى الوكلاء محفظة، مما يتيح لهم إجراء المعاملات بمفردهم باستخدام العقود الذكية. على سبيل المثال، يمكن للوكلاء الحاليين اليوم جمع المعلومات على الإنترنت ثم التداول في أسواق التنبؤ استنادًا إلى النماذج.
Morpheus هو أحد أحدث مشاريع الوكلاء مفتوحة المصدر التي تم إطلاقها في عام 2024 على Ethereum و Arbitrum. تم نشر ورقتها البيضاء بشكل مجهول في سبتمبر 2023 ، مما يوفر أساسا لتشكيل وبناء المجتمع ، بما في ذلك شخصيات بارزة مثل إريك فورهيس. يتضمن المستند التعريفي التمهيدي بروتوكول وكيل ذكي قابل للتنزيل ، وهو ماجستير في القانون مفتوح المصدر يمكن تشغيله محليا ، وإدارته بواسطة محفظة المستخدم ، والتفاعل مع العقود الذكية. يستخدم تصنيفات العقود الذكية لمساعدة الوكلاء على تحديد العقود الذكية التي يمكن التفاعل معها بأمان بناء على معايير مثل عدد المعاملات التي تمت معالجتها.
يقدم الكتاب الأبيض أيضًا إطارًا لبناء شبكة Morpheus، بما في ذلك الهياكل التحفيزية والبنية التحتية اللازمة لتشغيل بروتوكول الوكيل الذكي. ويشمل ذلك حوافز للمساهمين في بناء واجهات أمامية للتفاعل مع الوكلاء، وواجهات برمجة التطبيقات للمطورين لبناء وكلاء إضافيين للتفاعل المتبادل، وحلول سحابية للمستخدمين للوصول إلى الحساب والتخزين اللازمين لتشغيل الوكلاء على أجهزة الحواف. تم إطلاق تمويل المشروع الأولي في بداية فبراير، ومن المتوقع أن يتم إطلاق البروتوكول الكامل في الربع الثاني من عام 2024.
شبكة البنية التحتية اللامركزية الذاتية (DAIN) هي بروتوكول بنية تحتية للوكلاء جديد يقوم ببناء اقتصاد وكلاء إلى وكلاء على منصة سولانا. الهدف من DAIN هو تمكين الوكلاء من مختلف الشركات من التفاعل بسلاسة مع بعضهم البعض من خلال واجهة برمجة تطبيقات مشتركة، مما يفتح بشكل كبير مساحة التصميم لوكلاء الذكاء الاصطناعي، مع التركيز على الوكلاء القادرين على التفاعل مع منتجات الويب2 والويب3. في يناير، أعلنت DAIN شراكتها الأولى مع Asset Shield، مما يتيح للمستخدمين إضافة "وكلاء توقيع" إلى عمليات التوقيع المتعددة، قادرين على تفسير المعاملات والموافقة/الرفض بناءً على قواعد يحددها المستخدم.
تعتبر Fetch.AI واحدة من أقدم بروتوكولات الوكلاء الذكية المنشأة وقد وضعت نظامًا بيئيًا لبناء ونشر واستخدام الوكلاء على السلسلة باستخدام رموز FET ومحافظ Fetch.AI. يقدم البروتوكول مجموعة شاملة من الأدوات والتطبيقات لاستخدام الوكلاء، بما في ذلك وظائف المحفظة الداخلية للتفاعل مع وترتيب الوكلاء.
تأسست شركة Autonolas من قبل أعضاء سابقين في فريق Fetch، وهي سوق مفتوحة لإنشاء واستخدام وكلاء الذكاء الاصطناعي اللامركزيين. توفر Autonolas أيضًا مجموعة من الأدوات للمطورين لبناء وكلاء الذكاء الاصطناعي المستضافين خارج السلسلة يمكنها الاتصال بعدة سلاسل كتلية، بما في ذلك Polygon وEthereum وGnosis Chain وSolana. لديهم حاليًا بعض منتجات تجريبية نشطة لوكلاء الذكاء الاصطناعي، بما في ذلك للأسواق التنبؤية وحكم DAO.
يقوم SingularityNet ببناء سوق للوكلاء الذكية متموّزة، حيث يمكن نشر وكلاء ذكاء اصطناعي متخصصين، ويمكن استئجارهم من قبل آخرين أو وكلاء لأداء مهام معقدة. تعمل شركات أخرى مثل AlteredStateMachine على بناء تكاملات لوكلاء الذكاء الاصطناعي مع NFTs. يقوم المستخدمون بإنشاء NFTs بسمات عشوائية، تمنحهم ميزات وعيوب في مهام مختلفة. يمكن تدريب هؤلاء الوكلاء لتعزيز بعض السمات للاستخدام في الألعاب، DeFi، أو كمساعدين افتراضيين وتداولهم مع مستخدمين آخرين.
بشكل عام، تتصور هذه المشاريع نظامًا مستقبليًا للوكلاء قادرين على العمل بالتعاون ليس فقط لأداء المهام ولكن أيضًا للمساعدة في بناء الذكاء الاصطناعي العام. سيكون لدى الوكلاء المعقدة حقًا القدرة على إكمال المهام تلقائيًا. على سبيل المثال، ستكون الوكلاء التلقائية بمثابة قادرة على معرفة كيفية توظيف وكيل آخر لدمج واجهة برمجة تطبيقات، ثم تنفيذ مهمة بدون الحاجة إلى التأكد من أن الوكيل قد قام بالفعل بالتكامل مع واجهات برمجة تطبيقات خارجية (مثل مواقع حجز السفر) قبل الاستخدام. من وجهة نظر المستخدم، ليس هناك حاجة للتحقق مما إذا كان بإمكان الوكيل إكمال مهمة، حيث يستطيع الوكيل تحديد ذلك بمفرده.
في يوليو 2023 ، أطلقت Lightning Labs تطبيقا لإثبات المفهوم لاستخدام الوكلاء على شبكة Lightning ، والتي أطلق عليها اسم LangChain اسم Bitcoin suite. هذا المنتج مثير للاهتمام بشكل خاص لأنه يهدف إلى معالجة مشكلة تزداد حدة في عالم الويب 2 - مفاتيح API المسورة والمكلفة لتطبيقات الويب.
تتناول LangChain هذه المسألة من خلال توفير مجموعة من الأدوات للمطورين تمكن الوكلاء من شراء وبيع وحفظ البيتكوين، بالإضافة إلى استعلام مفاتيح واجهة برمجة تطبيقات وإرسال مدفوعات صغيرة. على شبكة البرق، يمكن للوكلاء إرسال عدد غير محدود من المدفوعات الصغيرة يوميًا بتكلفة دنيا. عند استخدامها بالتزامن مع إطار واجهة برمجة تطبيقات الدفع L402 من LangChain، يمكن للشركات تعديل تكاليف الوصول إلى واجهات برمجة تطبيقاتهم استنادًا إلى زيادات وانخفاضات في الاستخدام، بدلاً من تحديد معيار واحد مكلف.
في المستقبل، ستكون الأنشطة السلسلية مدفوعة في الغالب بالتفاعلات بين الوكلاء والوكلاء، مما يستلزم وجود آليات لضمان أن يتمكن الوكلاء من التفاعل مع بعضهم البعض دون تكاليف محظورة. يظهر هذا المثال المبكر الإمكانيات المحتملة لاستخدام الوكلاء على خطوط الدفع الفعالة اقتصاديًا وغير المشروطة، مما يفتح آفاقًا لأسواق جديدة وتفاعلات اقتصادية.
مجال الوكلاء لا يزال في مهده. بدأت المشاريع للتو في إطلاق وكلاء وظيفيين قادرين على التعامل مع المهام البسيطة - يقتصر الوصول عادة على المطورين والمستخدمين ذوي الخبرة. ومع ذلك ، بمرور الوقت ، سيكون أحد أهم تأثيرات وكلاء الذكاء الاصطناعي على العملة المشفرة هو تحسين تجربة المستخدم عبر جميع القطاعات. ستبدأ المعاملات في التحول من القائمة على النقر إلى القائمة على النص ، مما يتيح للمستخدمين التفاعل مع الوكلاء على السلسلة عبر واجهات المحادثة. أطلقت فرق مثل Dawn Wallet بالفعل محافظ chatbot ، مما يسمح للمستخدمين بالتفاعل على السلسلة.
علاوة على ذلك، لا يزال غير واضح كيف سيعمل الوكلاء في الويب 2، حيث تعتمد القضبان المالية على المؤسسات المصرفية المنظمة التي لا يمكنها العمل على مدار 24/7 أو تيسير المعاملات عبر الحدود بسلاسة. كما شددت لين ألدن على أن نقص التعويضات والقدرة على التعامل مع المعاملات الصغيرة تجعل قضبان العملات الرقمية جذابة بشكل خاص مقارنة ببطاقات الائتمان. ومع ذلك، إذا أصبح الوكلاء وسيلة أكثر شيوعاً للمعاملات، فمن المرجح أن تتكيف بسرعة مزودات الدفع والتطبيقات الحالية، وتنفيذ البنية التحتية اللازمة للعمل على القضبان المالية الحالية، وبالتالي التقليل من بعض فوائد استخدام العملات الرقمية.
حالياً، قد تكون الوكالات مقيدة إلى المعاملات الرقمية المحددة حيث يضمن المدخل المعطى الناتج المعطى. كلا النموذجين قد حددا قدرة هذه الوكالات على معرفة كيفية أداء المهام المعقدة، والأدوات تتوسع في نطاق المهام التي يمكنها إتمامها، وكليهما يتطلبان مزيدًا من التطوير. بالنسبة للوكالات الرقمية لتصبح مفيدة خارج حالات استخدام العملات الرقمية المبتكرة على السلسلة، فإن التكامل والقبول الأوسع للعملات الرقمية كشكل للدفع، جنبًا إلى جنب مع وضوح التنظيم، ضروريان. ومع ذلك، مع تطوير هذه العناصر، فإن الوكالات على استعداد لتصبح بين أكبر المستهلكين للحوسبة اللامركزية وحلول zkML، حيث يستقبلون ويحلون أي مهمة بطريقة غير محددة تلقائياً.
تقدم الذكاء الاصطناعي نفس الابتكارات التي رأيناها في عالم العملات الرقمية، معززًا كل شيء بدءًا من تطوير البنية التحتية إلى تجربة المستخدم والوصول. ومع ذلك، ما زالت المشاريع في مراحل التطوير الأولية، وستكون التكاملات القريبة الأمد بين العملات الرقمية والذكاء الاصطناعي في المقام الأول مدفوعة بالتكاملات خارج السلسلة.
مثل منتجات مثل Copilot مُعدة لـ 'زيادة كفاءة المُطور بنسبة 10 مرات'، وقد أطلقت بالفعل منصات تطوير مُساعدة بالذكاء الاصطناعي في الطبقة 1 وتطبيقات DeFi بالتعاون مع شركات رئيسية مثل Microsoft. شركات مثل Cub3.ai و Test Machine تقوم بتطوير تكاملات الذكاء الاصطناعي لتدقيق العقود الذكية ومراقبة التهديدات في الوقت الحقيقي لتعزيز أمان السلسلة الأساسية. يتم تدريب الروبوتات الدردشة LLM باستخدام البيانات على السلسلة الأساسية، وثائق البروتوكول، والتطبيقات لتوفير قدرة الوصول المحسنة وتجربة المستخدم للمستخدمين.
تبقى التحديات الخاصة بالتكاملات المتقدمة أكثر تحديًا لإثبات أن تنفيذ حلول الذكاء الاصطناعي على السلسلة يمكن أن يكون ممكنًا تقنيًا واقتصاديًا. تطور الحوسبة اللامركزية و zkML ووكلاء الذكاء الاصطناعي يشير إلى القطاعات الرأسية الواعدة التي تمهد الطريق لمستقبل مترابط بشكل عميق للعملات الرقمية والذكاء الاصطناعي.