دمج الذكاء الاصطناعي و Web3: فرص جديدة لبناء بنية تحتية للذكاء الاصطناعي الموزع

AI+Web3: الأبراج والساحات

TL; د

  1. مشاريع Web3 ذات مفهوم الذكاء الاصطناعي أصبحت هدفاً لجذب الأموال في السوقين الأول والثاني.

  2. تظهر الفرص في صناعة الذكاء الاصطناعي في Web3 من خلال: استخدام الحوافز الموزعة لتنسيق العرض المحتمل في الذيل الطويل - عبر البيانات والتخزين والحوسبة؛ مع بناء نماذج مفتوحة المصدر وسوق لامركزي لوكلاء الذكاء الاصطناعي.

  3. يتم استخدام الذكاء الاصطناعي في صناعة Web3 بشكل أساسي في التمويل على السلسلة (المدفوعات المشفرة، التداول، تحليل البيانات) وكذلك في المساعدة على التطوير.

  4. تظهر فائدة AI+Web3 في تكامل كليهما: من المتوقع أن يتحدى Web3 المركزية في AI، ومن المتوقع أن تساعد AI Web3 في كسر الحواجز.

! الذكاء الاصطناعي+Web3: الأبراج والساحات

المقدمة

في السنتين الماضيتين، تطور الذكاء الاصطناعي وكأنه تم الضغط على زر التسريع. لقد فتح الدفق الذي أثارته Chatgpt عالماً جديداً من الذكاء الاصطناعي التوليدي، وأيضاً أحدث موجة قوية في مجال Web3.

بدعم من مفهوم الذكاء الاصطناعي، ارتفع تمويل سوق العملات المشفرة بشكل ملحوظ. فقط في النصف الأول من عام 2024، أكمل 64 مشروعًا من Web3 + AI تمويلًا، حيث حقق نظام التشغيل القائم على الذكاء الاصطناعي Zyber365 أعلى تمويل بقيمة 100 مليون دولار في الجولة A.

سوق الثانوية أكثر ازدهارًا، حيث تُظهر بيانات موقع تجميع العملات المشفرة Coingecko أنه في غضون عام واحد فقط، وصلت القيمة السوقية الإجمالية لمجال الذكاء الاصطناعي إلى 48.5 مليار دولار، بينما اقترب حجم التداول خلال 24 ساعة من 8.6 مليار دولار. من الواضح أن التقدم في التقنيات الرئيسية للذكاء الاصطناعي يأتي بمزايا ملحوظة، بعد إصدار نموذج OpenAI Sora لتحويل النص إلى فيديو، ارتفع متوسط سعر قطاع الذكاء الاصطناعي بنسبة 151%. كما أن تأثير الذكاء الاصطناعي يمتد أيضًا إلى واحدة من القطاعات الجذابة للعملات المشفرة، الميم: حيث أصبح أول مفهوم ميمكوين للوكيل الذكي - GOAT - مشهورًا بسرعة وحصل على تقييم قدره 1.4 مليار دولار، مما أثار موجة من ميمات الذكاء الاصطناعي.

تعتبر الأبحاث والمواضيع حول AI+Web3 أيضًا شائعة للغاية، بدءًا من AI+Depin إلى AI Memecoin وصولاً إلى AI Agent وAI DAO الحالية، وقد أصبح الشعور بالـ FOMO بالفعل غير قادر على مواكبة سرعة تبديل السرد الجديد.

AI + Web3، هذا التركيب اللفظي المليء بالمال الساخن، والفرص، وأحلام المستقبل، لا مفر من أن يُنظر إليه على أنه زواج مُرتب تم بوساطة رأس المال، يبدو أنه من الصعب علينا التمييز تحت هذه العباءة الرائعة، هل هو ملعب المضاربين، أم أنه ليلة الانفجار عند الفجر؟

للإجابة على هذا السؤال، فإن أحد التأملات الأساسية بالنسبة للطرفين هو: هل سيكون الوضع أفضل بوجود الآخر؟ هل يمكن الاستفادة من نمط الآخر؟ في هذه المقالة، نحاول أيضًا أن نقف على أكتاف السابقين لفحص هذه الصورة: كيف يمكن أن تلعب Web3 دورًا في مختلف مراحل مجموعة تقنيات AI، وما الذي يمكن أن تجلبه AI لـ Web3 من حيوية جديدة؟

Part.1 ما هي الفرص المتاحة لـ Web3 تحت كومة الذكاء الاصطناعي؟

قبل الخوض في هذا الموضوع، نحتاج إلى فهم كومة التكنولوجيا لنماذج الذكاء الاصطناعي الكبيرة:

تعبير عن العملية بأكثر لغة شائعة: "النموذج الكبير" يشبه دماغ الإنسان، في المرحلة المبكرة، ينتمي هذا الدماغ إلى طفل حديث الولادة يحتاج إلى مراقبة واستيعاب كمية هائلة من المعلومات من العالم من حوله لفهم هذا العالم، وهذه هي مرحلة "جمع البيانات". نظرًا لأن الكمبيوتر لا يمتلك الحواس المتعددة مثل الرؤية والسمع لدى البشر، يجب تحويل المعلومات الضخمة غير المعلنة من الخارج إلى تنسيق معلومات يمكن للكمبيوتر فهمه واستخدامه من خلال "المعالجة المسبقة" قبل التدريب.

بعد إدخال البيانات، يقوم الذكاء الاصطناعي من خلال "التدريب" ببناء نموذج يمتلك القدرة على الفهم والتنبؤ، ويمكن اعتباره بمثابة عملية فهم وتعلم الطفل للعالم الخارجي تدريجياً. تُعتبر معلمات النموذج مثل القدرة اللغوية التي يتم ضبطها باستمرار خلال عملية تعلم الطفل. عندما يبدأ المحتوى التعليمي في التخصص، أو عندما يتواصل مع الآخرين للحصول على تغذية راجعة وتصحيح، فإنه يدخل مرحلة "التعديل الدقيق" للنموذج الكبير.

عندما يبدأ الأطفال في النمو ويتعلمون التحدث، يمكنهم فهم المعاني والتعبير عن مشاعرهم وأفكارهم في محادثات جديدة، وهذه المرحلة تشبه "الاستدلال" في نماذج الذكاء الاصطناعي الكبيرة، حيث يمكن للنموذج التنبؤ وتحليل المدخلات الجديدة من اللغة والنص. يعبر الأطفال عن مشاعرهم من خلال القدرة اللغوية، ويصفون الأشياء ويحلون مجموعة متنوعة من المشكلات، وهذا مشابه أيضًا لتطبيق نماذج الذكاء الاصطناعي الكبيرة في مرحلة الاستدلال بعد الانتهاء من التدريب واستخدامها في مهام محددة مثل تصنيف الصور والتعرف على الصوت.

ووكيل الذكاء الاصطناعي يقترب أكثر من الشكل التالي للنموذج الكبير - القادر على تنفيذ المهام بشكل مستقل والسعي نحو أهداف معقدة، ليس فقط لديه القدرة على التفكير، بل يمكنه أيضًا التذكر والتخطيط، وقادر على استخدام الأدوات والتفاعل مع العالم.

في الوقت الحالي، وبالنظر إلى نقاط الألم المتعلقة بالذكاء الاصطناعي في مختلف الطبقات، فقد شكلت Web3 حاليًا نظامًا بيئيًا متعدد المستويات ومترابطًا، يغطي جميع مراحل عملية نموذج الذكاء الاصطناعي.

! الذكاء الاصطناعي+Web3: الأبراج والمربعات

واحدة، الطبقة الأساسية: Airbnb للقوة الحاسوبية والبيانات

قوة الحساب

حاليًا، أحد أعلى التكاليف المتعلقة بالذكاء الاصطناعي هو القدرة الحاسوبية والطاقة المطلوبة لتدريب النماذج واستنتاج النماذج.

مثال على ذلك هو أن نموذج اللغة الكبير لشركة تكنولوجيا كبرى يحتاج إلى 16000 وحدة معالجة رسومية عالية الأداء التي تنتجها شركة رقائق معروفة لتكمل التدريب في 30 يومًا. تتراوح تكلفة النسخة ذات 80 جيجابايت بين 30,000 و40,000 دولار، مما يتطلب استثمارًا في أجهزة الحوسبة يتراوح بين 4 إلى 7 مليارات دولار (وحدات معالجة رسومية + شرائح الشبكة)، وفي الوقت نفسه، يحتاج التدريب الشهري إلى استهلاك 1.6 مليار كيلووات ساعة، مما يجعل نفقات الطاقة تصل إلى حوالي 20 مليون دولار شهريًا.

بالنسبة لفك ضغط قوة الحوسبة للذكاء الاصطناعي، فهي بالفعل من المجالات الأولى التي تتقاطع فيها Web3 مع الذكاء الاصطناعي - DePin (شبكة البنية التحتية المادية اللامركزية). حالياً، قامت منصة بيانات DePin Ninja بعرض أكثر من 1400 مشروع، ومن بين المشاريع الرائدة في مشاركة قوة GPU توجد io.net و Aethir و Akash و Render Network وغيرها.

المنطق الرئيسي هنا هو: يسمح النظام للأفراد أو الكيانات التي تمتلك موارد GPU غير مستخدمة بالمساهمة بقوتها الحاسوبية بطريقة لامركزية دون إذن، من خلال سوق عبر الإنترنت للمشترين والبائعين مشابه لمنصات الاقتصاد التشاركي، مما يزيد من معدل استخدام موارد GPU غير المستغلة. كما يحصل المستخدمون النهائيون على موارد حاسوبية عالية الكفاءة بتكلفة أقل. في الوقت نفسه، تضمن آلية الرهن أنه في حالة حدوث انتهاكات لآلية التحكم في الجودة أو انقطاع الشبكة، فإن مزودي الموارد يتعرضون للعقوبات المناسبة.

تتميز بما يلي:

  • تجميع موارد GPU غير المستخدمة: الموردون هم بشكل رئيسي مراكز البيانات المستقلة الصغيرة والمتوسطة من طرف ثالث، ومشغلي مناجم العملات المشفرة، وما إلى ذلك، توفر الطاقة الزائدة للمعالجة، وآلية الإجماع هي أجهزة تعدين PoS مثل أجهزة تعدين FileCoin وETH. حالياً، هناك أيضًا مشاريع تهدف إلى بدء تشغيل أجهزة ذات عتبة دخول أقل، مثل exolab التي تستخدم MacBook وiPhone وiPad لإنشاء شبكة طاقة لتشغيل استدلال النماذج الكبيرة.

  • مواجهة سوق الذيل الطويل لقوة حسابات الذكاء الاصطناعي:

أ. "من الناحية التقنية" يعتبر سوق القدرة الحاسوبية اللامركزية أكثر ملاءمة لخطوات الاستدلال. يعتمد التدريب بشكل أكبر على قدرة معالجة البيانات التي توفرها وحدات معالجة الرسوميات (GPU) ذات الحجم الكبير جدًا، بينما تكون متطلبات الأداء الحسابي لوحدات معالجة الرسوميات للاستدلال أقل نسبيًا، كما تركز Aethir على العمل في وقت الاستجابة المنخفض وتطبيقات الاستدلال بالذكاء الاصطناعي.

ب. "من جهة الطلب"، لن تقوم الجهات ذات القدرة الحاسوبية المتوسطة بتدريب نماذج كبيرة خاصة بها، بل ستختار فقط تحسين وتعديل بعض النماذج الكبيرة الرائدة، وهذه السيناريوهات تناسب بطبيعتها موارد الحوسبة الموزعة غير المستغلة.

  • الملكية اللامركزية: المعنى التقني للبلوكشين هو أن مالكي الموارد يحتفظون دائمًا بالتحكم في مواردهم، مع القدرة على التكيف وفقًا للاحتياجات، بينما يحققون الأرباح.

البيانات

البيانات هي أساس الذكاء الاصطناعي. إذا لم تكن هناك بيانات، فإن الحساب سيكون عديم الفائدة تمامًا، والعلاقة بين البيانات والنموذج تشبه القول المأثور "قمامة في، قمامة خارج"، حيث تحدد كمية البيانات وجودة المدخلات جودة مخرجات النموذج النهائي. بالنسبة لتدريب نماذج الذكاء الاصطناعي الحالية، تحدد البيانات قدرة اللغة للنموذج، وفهمه، وحتى قيمه وأسلوب تعبيره البشري. تركز أزمة الطلب على البيانات في الذكاء الاصطناعي حاليًا على أربعة مجالات رئيسية:

  • جوع البيانات: تعتمد نماذج الذكاء الاصطناعي على إدخال كميات كبيرة من البيانات للتدريب. تُظهر البيانات العامة أن إحدى شركات الذكاء الاصطناعي الشهيرة قد وصلت إلى تريليونات من معلمات نموذجها اللغوي الكبير.

  • جودة البيانات: مع دمج الذكاء الاصطناعي في مختلف الصناعات، تضع التوقيت، وتنوع البيانات، واحترافية البيانات العمودية، ومصادر البيانات الناشئة مثل مشاعر وسائل التواصل الاجتماعي متطلبات جديدة على جودتها.

  • مسائل الخصوصية والامتثال: تلاحظ الدول والشركات حاليًا أهمية مجموعات البيانات عالية الجودة وتقوم بفرض قيود على جمع البيانات.

  • تكلفة معالجة البيانات مرتفعة: حجم البيانات كبير، وعملية المعالجة معقدة. تشير المعلومات المتاحة إلى أن أكثر من 30% من تكلفة البحث والتطوير لشركات الذكاء الاصطناعي تُستخدم لجمع ومعالجة البيانات الأساسية.

حالياً، تظهر حلول Web3 في الجوانب الأربعة التالية:

  1. جمع البيانات: القدرة على توفير بيانات العالم الحقيقي التي تم جمعها مجانًا تتناقص بسرعة، حيث تزداد نفقات الشركات العاملة في مجال الذكاء الاصطناعي المدفوعة للبيانات عامًا بعد عام. ولكن في الوقت نفسه، فإن هذه النفقات لم تنعكس على المساهمين الحقيقيين في البيانات، حيث استمتع المنصات بالكامل بقيمة الإبداع الناتجة عن البيانات، مثل منصات التواصل الاجتماعي التي حققت إيرادات إجمالية قدرها 203 مليون دولار من خلال توقيع اتفاقيات ترخيص البيانات مع شركات الذكاء الاصطناعي.

يسعى Web3 إلى تمكين المستخدمين الذين يسهمون بشكل حقيقي من المشاركة في خلق القيمة الناتجة عن البيانات، وكذلك الحصول على بيانات أكثر خصوصية وقيمة بتكلفة منخفضة من خلال الشبكات الموزعة وآليات التحفيز.

  • Grass هو طبقة بيانات وشبكة لامركزية، يمكن للمستخدمين من خلالها تشغيل عقد Grass، والمساهمة في نطاق التردد غير المستخدم وتدفق الترحيل لالتقاط البيانات الحية من جميع أنحاء الإنترنت، والحصول على مكافآت رمزية.

  • قدمت Vana مفهوم فريد من نوعه لبركة السيولة البيانات (DLP)، حيث يمكن للمستخدمين تحميل بياناتهم الخاصة (مثل سجلات التسوق، عادات التصفح، أنشطة وسائل التواصل الاجتماعي، إلخ) إلى DLP محدد، واختيار ما إذا كانوا يرغبون في منح إذن لاستخدام هذه البيانات لأطراف ثالثة معينة.

  • في PublicAI، يمكن للمستخدمين استخدام #AI或#Web3 كعلامة تصنيف على إحدى منصات التواصل الاجتماعي و@PublicAI لجمع البيانات.

  1. معالجة البيانات: في عملية معالجة بيانات الذكاء الاصطناعي، نظرًا لأن البيانات المجمعة عادة ما تكون صاخبة وتحتوي على أخطاء، يجب تنظيفها وتحويلها إلى تنسيق قابل للاستخدام قبل تدريب النموذج، مما يتضمن مهام متكررة مثل التوحيد والتصفية ومعالجة القيم المفقودة. هذه المرحلة هي واحدة من القلائل التي تتطلب تدخلًا بشريًا في صناعة الذكاء الاصطناعي، وقد نشأ عنها مهنة مُعَلِّم البيانات، ومع زيادة متطلبات جودة البيانات من النموذج، ارتفعت أيضًا متطلبات العمل لمعلمي البيانات، وهذه المهمة مناسبة بطبيعتها لآلية الحوافز اللامركزية في Web3.
  • حاليا، يقوم كل من Grass و OpenLayer بدراسة الانضمام إلى هذه المرحلة الرئيسية من التسمية البيانية.

  • قدمت Synesis مفهوم "Train2earn"، مع التركيز على جودة البيانات، حيث يمكن للمستخدمين الحصول على مكافآت من خلال تقديم بيانات معنونة، أو تعليقات، أو أشكال أخرى من المدخلات.

  • مشروع وسم البيانات Sapien يقوم بتحويل مهام الوسم إلى لعبة، ويسمح للمستخدمين بربط النقاط لكسب المزيد من النقاط.

  1. خصوصية البيانات والأمان: من الضروري توضيح أن خصوصية البيانات والأمان هما مفهومين مختلفين. تتعلق خصوصية البيانات بمعالجة البيانات الحساسة، بينما يحمي الأمان المعلومات من الوصول غير المصرح به والتدمير والسرقة. وبالتالي، تظهر مزايا تقنيات الخصوصية في Web3 والسيناريوهات المحتملة للتطبيق في جانبين: (1) تدريب البيانات الحساسة؛ (2) التعاون في البيانات: يمكن لمالكي البيانات المتعددين المشاركة معاً في تدريب الذكاء الاصطناعي دون الحاجة إلى مشاركة بياناتهم الأصلية.

تشمل تقنيات الخصوصية الشائعة في Web3 الحالية ما يلي:

  • بيئة التنفيذ الموثوقة ( TEE ) ، مثل بروتوكول سوبر.

  • التشفير المتجانس الكامل (FHE)، مثل BasedAI، Fhenix.io أو Inco Network.

  • تقنية إثبات المعرفة صفر (zk) ، مثل بروتوكول Reclaim الذي يستخدم تقنية zkTLS ، تولد إثباتات المعرفة صفر لحركة مرور HTTPS ، مما يسمح للمستخدمين باستيراد الأنشطة والسمعة وبيانات الهوية من مواقع الويب الخارجية بأمان دون الكشف عن معلومات حساسة.

ومع ذلك، لا يزال هذا المجال في مرحلة مبكرة، حيث لا تزال معظم المشاريع قيد الاستكشاف، وأحد المآزق الحالية هو أن تكاليف الحساب مرتفعة للغاية، ومن الأمثلة على ذلك:

  • يحتاج إطار zkML EZKL إلى حوالي 80 دقيقة لإنشاء إثبات نموذج 1M-nanoGPT.

  • وفقًا لبيانات Modulus Labs، فإن تكلفة zkML أعلى بأكثر من 1000 مرة من التكلفة الحسابية البحتة.

  1. تخزين البيانات: بعد الحصول على البيانات، تحتاج أيضًا إلى مكان لتخزين البيانات على السلسلة، بالإضافة إلى LLM الناتج عن استخدام هذه البيانات. مع التركيز على مشكلة توفر البيانات (DA)، كانت سعة المعالجة 0.08MB قبل ترقية Danksharding في إيثيريوم. في الوقت نفسه، عادة ما يتطلب تدريب نماذج الذكاء الاصطناعي والاستدلال في الوقت الحقيقي سعة معالجة بيانات تتراوح بين 50 إلى 100GB في الثانية. هذه الفجوة الكمية تجعل الحلول الحالية على السلسلة غير قادرة على مواجهة "تطبيقات الذكاء الاصطناعي التي تتطلب موارد كثيفة".
  • 0g.AI هو ممثل لهذه الفئة
شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • أعجبني
  • 5
  • مشاركة
تعليق
0/400
StablecoinEnjoyervip
· منذ 9 س
لا أرى أن هذا الاندماج سيكون جيدًا
شاهد النسخة الأصليةرد0
ApeEscapeArtistvip
· 07-11 12:17
المستقبل يبدو واعدًا
شاهد النسخة الأصليةرد0
LayerZeroHerovip
· 07-11 12:05
التكامل هو السبيل لتحقيق الفوز المشترك
شاهد النسخة الأصليةرد0
ShadowStakervip
· 07-11 12:00
اتجاه يستحق الدراسة المتعمقة
شاهد النسخة الأصليةرد0
NotGonnaMakeItvip
· 07-11 11:58
المستقبل قد جاء
شاهد النسخة الأصليةرد0
  • تثبيت