شرح مفصل لبنية الذكاء الاصطناعي + ويب3

متوسط3/29/2024, 7:41:47 PM
تتناول المشاريع الرئيسية في طبقة البنية التحتية لصناعة الذكاء الاصطناعي والويب3 بشكل أساسي شبكة الحوسبة اللامركزية كسرد رئيسي، وتكلفة منخفضة كميزة رئيسية، والحوافز بالرموز التشفيرية كوسيلة رئيسية لتوسيع الشبكة، وخدمة العملاء في مجال الذكاء الاصطناعي والويب3 كهدف رئيسي.

العنوان الأصلي المحول: مسار تطوير المستقبل AI+Web3 (2): الفصل الأساسي

البنية التحتية هي الاتجاه النمو الحتمي لتطوير الذكاء الاصطناعي

1. الطلب المتزايد على الحوسبة الذكية

في السنوات الأخيرة، شهد الطلب على قوة الحسابات نموًا سريعًا، خاصة بعد ظهور نموذج LLM الكبير. لقد أثر هذا الارتفاع الكبير في الطلب على قوة الحسابات الذكية بشكل كبير على سوق الحوسبة عالية الأداء. تكشف بيانات OpenAI عن اتجاه ملحوظ منذ عام 2012، حيث تعمل قوة الحسابات المستخدمة لتدريب أكبر نماذج الذكاء الاصطناعي على النمو بشكل متسارع، مضاعفة كل 3-4 أشهر في المتوسط، تجاوزت معدل النمو الذي تنبأ به قانون مور. أدى الطلب المتزايد على تطبيقات الذكاء الاصطناعي إلى زيادة سريعة في الحاجة إلى أجهزة الحاسوب. تشير التوقعات إلى أنه بحلول عام 2025، من المتوقع أن يرتفع الطلب على أجهزة الحاسوب الذكية الناتج عن تطبيقات الذكاء الاصطناعي بنسبة تقدر بحوالي 10% إلى 15%.

مدفوعة بالطلب على قوة الحوسبة الذكاء الاصطناعي ، شهدت شركة NVIDIA المصنعة لأجهزة GPU نموا مستمرا في إيرادات مركز البيانات. في الربع الثاني من عام 2023 ، بلغت إيرادات مراكز البيانات 10.32 مليار دولار ، مسجلة زيادة بنسبة 141٪ عن الربع الأول من عام 2023 وزيادة ملحوظة بنسبة 171٪ عن نفس الفترة من العام السابق. بحلول الربع الرابع من السنة المالية 2024 ، استحوذ قطاع مراكز البيانات على أكثر من 83٪ من إجمالي الإيرادات ، حيث شهد نموا متزامنا بنسبة 409٪ ، مع 40٪ تعزى إلى سيناريوهات الاستدلال الكبيرة للنماذج ، مما يشير إلى الطلب القوي على قوة الحوسبة عالية الأداء.

في نفس الوقت، تفرض الحاجة إلى كميات هائلة من البيانات متطلبات كبيرة على التخزين وذاكرة الأجهزة. وخلال مرحلة تدريب النموذج بشكل خاص، يعتبر إدخال المعلمات الشاملة وتخزين البيانات ضروريًا. تشمل رقائق الذاكرة المستخدمة في خوادم الذكاء الاصطناعي بشكل أساسي ذاكرة الوصول العشوائي عالية النطاق (HBM)، وDRAM، وSSD. يجب على بيئات العمل لخوادم الذكاء الاصطناعي توفير سعة متزايدة، وأداء محسن، وتأخير مقلل، وأوقات استجابة أسرع. ووفقًا لحسابات Micron، فإن كمية DRAM في خوادم الذكاء الاصطناعي تفوق ذلك في الخوادم التقليدية بثمانية أضعاف، بينما تتجاوز كمية NAND معايير الخوادم التقليدية بثلاثة أضعاف.

2.تعزيز تكلفة طاقة الحوسبة بفعل عدم التوازن بين العرض والطلب

بشكل عام، يتم استخدام قوة الحساب في المقام الأول في مراحل تدريب وضبط دقيق والاستدلال لنماذج الذكاء الاصطناعي، وخاصة خلال مراحل التدريب والضبط الدقيق. نظرًا لزيادة معلمات البيانات المدخلة ومتطلبات الحساب والطلب المتزايد على التواصل في الحوسبة المتوازية، هناك حاجة إلى معدات GPU أكثر قوة وتواصلًا، غالبًا في شكل مجموعات عتاد GPU عالية الأداء. مع تطور النماذج الكبيرة، يزيد تعقيد الحساب بشكل خطي، الأمر الذي يستدعي مزيدًا من العتاد عالي الأداء لتلبية متطلبات تدريب النموذج.

مأخوذاً GPT-3 كمثال، مع سيناريو يشمل حوالي 13 مليون زيارة مستقلة للمستخدم، فإن الطلب على الشرائح المقابل سيتجاوز 30،000 A100 GPUs. ستصل تكلفة الاستثمار الأولية هذه إلى 800 مليون دولار بشكل مذهل، مع تكاليف تقديرية يومية لتدرؤ النموذج تُقدر بحوالي 700،000 دولار.

وفي الوقت نفسه، تشير تقارير الصناعة إلى أن إمدادات GPU من NVIDIA كانت مقيدة بشكل كبير عالميًا في الربع الرابع من عام 2023، مما أدى إلى عدم توازن ملحوظ بين العرض والطلب في الأسواق العالمية. وكانت القدرة الإنتاجية لدى NVIDIA مقيدة بعوامل مثل TSMC و HBM و تغليف CoWos، ومن المتوقع أن يستمر مشكلة نقص الإمداد بشكل كبير على GPU H100 على الأقل حتى نهاية عام 2024.

لذلك، فقد دفعت الزيادة في الطلب على وحدات GPU عالية الأداء وقيود العرض أسعار مكونات الأجهزة الحالية مثل وحدات GPU إلى الارتفاع. وخاصة بالنسبة للشركات مثل NVIDIA التي تحتل موقعاً أساسياً في سلسلة الصناعة، تزيد الأسعار المرتفعة بفضل سيطرتها على السوق، مما يسمح لها بجني قيمة إضافية. على سبيل المثال، يبلغ تكلفة مواد بطاقة تسريع الذكاء الاصطناعي H100 من NVIDIA حوالي 3,000 دولار، ومع ذلك، وصل سعر بيعها إلى حوالي 35,000 دولار في منتصف عام 2023، وحتى تجاوز 40,000 دولار على موقع eBay.

3. تحتمل البنية التحتية للذكاء الاصطناعي نمو سلسلة الصناعة

تشير تقرير شركة Grand View Research إلى أن حجم سوق الذكاء الاصطناعي السحابي العالمي تم تقديره بنحو 62.63 مليار دولار في عام 2023، ومن المتوقع أن يصل إلى 647.6 مليار دولار بحلول عام 2030، بمعدل نمو سنوي مركب يبلغ 39.6%. تؤكد هذه الأرقام النمو الكبير المحتمل لخدمات الذكاء الاصطناعي السحابي ومساهمتها الكبيرة في سلسلة صناعة الذكاء الاصطناعي بشكل عام.

وفقًا لتقديرات شركة a16z، تتدفق جزء كبير من الأموال في سوق AIGC (الذكاء الاصطناعي والحوسبة العالمية) في نهاية المطاف نحو شركات البنية التحتية. في المتوسط، تخصص شركات التطبيقات حوالي 20-40٪ من إيرادها للاستدلال وضبط الدقة لكل عميل. يُوجه هذا الإنفاق عادةً إلى موفر السحابة لمثيل الحوسبة أو موفر النموذج الخارجي، الذي يخصص بدوره حوالي نصف الإيراد لبنية السحابة. وبناءً على ذلك، من المعقول أن نفترض أن 10-20٪ من إجمالي الإيراد الذي تولده AIGC يتم توجيهه إلى موفري السحابة.

وعلاوة على ذلك، تتمركز نسبة كبيرة من الطلب على قوة الحوسبة حول تدريب نماذج الذكاء الاصطناعي الكبيرة، بما في ذلك مختلف النماذج LLM الواسعة. وخصوصاً بالنسبة لشركات النماذج الصغيرة، يعزى 80-90% من التكاليف إلى قوة الحوسبة الذكية. ومجتمعة، يُتوقع أن تمثل البنية التحتية للحوسبة الذكية، التي تشمل الحوسبة السحابية والأجهزة، أكثر من 50% من القيمة الأولية للسوق.

حوسبة الذكاء الاصطناعي اللامركزية

كما تم مناقشته سابقًا، تظل تكلفة الحوسبة الذكية المركزية مرتفعة حاليًا، نظرًا أساسًا إلى الطلب المتزايد على بنية تحتية عالية الأداء لتدريب الذكاء الاصطناعي. ومع ذلك، توجد كمية كبيرة من الطاقة الحوسبية الشاغرة في السوق، مما يؤدي إلى تفاوت بين العرض والطلب. العوامل الرئيسية التي تسهم في هذا التفاوت تشمل:

  • محدود بالذاكرة ، لا يحتوي تعقيد النموذج على علاقة نمو خطية مع عدد وحدات معالجة الرسومات المطلوبة.: تتمتع وحدات معالجة الرسومات الحالية بمزايا قوة الحوسبة ، لكن تدريب النموذج يتطلب عددا كبيرا من المعلمات ليتم تخزينها في الذاكرة. بالنسبة ل GPT-3 ، على سبيل المثال ، من أجل تدريب نموذج يحتوي على 175 مليار معلمة ، يجب الاحتفاظ بأكثر من 1 تيرابايت من البيانات في الذاكرة - أكثر من أي وحدة معالجة رسومات متاحة اليوم ، مما يتطلب المزيد من وحدات معالجة الرسومات للحوسبة المتوازية والتخزين. ، مما سيؤدي بدوره إلى قوة حوسبة GPU خاملة. على سبيل المثال ، من GPT3 إلى GPT4 ، زاد حجم معلمة النموذج بحوالي 10 مرات ، لكن عدد وحدات معالجة الرسومات المطلوبة زاد بمقدار 24 مرة (دون مراعاة الزيادة في وقت تدريب النموذج). وفقا للتحليل ذي الصلة ، استخدم OpenAI ما يقرب من 2.15e25 FLOPS في تدريب GPT-4 ، وأجرى تدريبا على ما يقرب من 25000 وحدة معالجة رسومات A100 لمدة 90 إلى 100 يوم ، مع استخدام طاقة الحوسبة بنسبة 32٪ إلى 36٪ تقريبا.

استجابة للتحديات الموضحة أعلاه ، يعد السعي وراء تصميم رقائق عالية الأداء أو رقائق ASIC متخصصة مصممة خصيصا لمهام الذكاء الاصطناعي طريقا بارزا يتم استكشافه من قبل العديد من المطورين والمؤسسات الكبرى. نهج آخر ينطوي على الاستخدام الشامل لموارد الحوسبة الحالية لإنشاء شبكة الحوسبة الموزعة ، بهدف تقليل تكاليف طاقة الحوسبة من خلال التأجير والمشاركة والجدولة الفعالة للموارد. بالإضافة إلى ذلك ، يستضيف السوق حاليا فائضا من وحدات معالجة الرسومات ووحدات المعالجة المركزية الخاملة من فئة المستهلك. في حين أن الوحدات الفردية قد تفتقر إلى قوة حوسبة قوية ، إلا أنها يمكن أن تلبي بشكل فعال المتطلبات الحسابية الحالية في سيناريوهات محددة أو عند دمجها مع شرائح عالية الأداء. بشكل حاسم ، يعد ضمان إمدادات وافرة أمرا ضروريا ، حيث يمكن تقليل التكاليف بشكل أكبر من خلال جدولة الشبكة الموزعة.

وبالتالي، ظهر التحول نحو قوة الحوسبة الموزعة كاتجاه رئيسي في تقدم بنية الذكاء الاصطناعي. في الوقت نفسه، نظرًا للتوافق المفاهيمي بين Web3 والأنظمة الموزعة، أصبحت شبكات قوى الحوسبة اللامركزية تركيزًا رئيسيًا في منظر بنية Web3+AI. حاليًا، تقدم منصات قوى الحوسبة اللامركزية في سوق Web3 أسعارًا تكون عمومًا 80%-90% أقل من خدمات الحوسبة السحابية المركزية.

بينما يلعب التخزين دورًا حيويًا في البنية التحتية للذكاء الاصطناعي، يحمل التخزين المركزي مزايا مميزة من حيث النطاق والاستخدام وانخفاض التأخير. ومع ذلك، نظرًا للكفاءة التكلفية الملحوظة التي يقدمونها، تحمل شبكات الحوسبة الموزعة إمكانات سوقية كبيرة وتستفيد بشكل كبير من توسع سوق الذكاء الاصطناعي المتزايد.

  • يمثل استدلال النموذج والتدريب على النموذج الصغير السيناريوهات الأساسية لقوة الحوسبة الموزعة الحالية. يؤدي تشتت موارد الحوسبة في الأنظمة الموزعة حتما إلى تحديات الاتصال بين وحدات معالجة الرسومات ، مما قد يؤدي إلى انخفاض أداء الحوسبة. وبالتالي ، فإن قوة الحوسبة الموزعة هي الأنسب للسيناريوهات التي تتطلب الحد الأدنى من الاتصال ويمكن أن تدعم المهام المتوازية بشكل فعال. تتضمن هذه السيناريوهات مرحلة الاستدلال لنماذج الذكاء الاصطناعي الشاملة والنماذج الصغيرة ذات المعلمات الأقل نسبيا ، مما يقلل من تأثيرات الأداء. بالنظر إلى المستقبل ، مع تطور التطبيقات الذكاء الاصطناعي ، يظهر التفكير كشرط حاسم في طبقة التطبيق. بالنظر إلى أن معظم الشركات تفتقر إلى القدرة على تدريب النماذج الكبيرة بشكل مستقل ، فإن قوة الحوسبة الموزعة تحتفظ بإمكانات سوقية كبيرة على المدى الطويل.
  • هناك ارتفاع في الأطر العالية الأداء الموزعة المصممة للحوسبة الموازية على نطاق واسع. إطارات الحوسبة الموزعة مفتوحة المصدر والمبتكرة مثل PyTorch و Ray و DeepSpeed توفر للمطورين دعمًا أساسيًا قويًا للاستفادة من قوة الحوسبة الموزعة في تدريب النماذج. يعزز هذا التقدم قابلية استخدام قوة الحوسبة الموزعة في سوق الذكاء الاصطناعي المستقبلي، مما يسهل دمجه في تطبيقات الذكاء الاصطناعي المختلفة.

المنطق السردي لمشاريع البنية التحتية AI+Web3

يظهر قطاع البنية التحتية الذكية الموزعة طلبًا قويًا وآفاق نمو طويلة الأجل كبيرة، مما يجعله مجالًا جذابًا لرأس المال الاستثماري. حاليًا، تتمحور المشاريع الأساسية ضمن طبقة البنية التحتية لصناعة الذكاء الاصطناعي + الويب3 حولًا بشكل أساسي حول شبكات الحوسبة اللامركزية. تشدد هذه المشاريع على تكاليف منخفضة كميزة رئيسية، وتستخدم حوافز الرموز لتوسيع شبكاتها، وتعطي الأولوية لخدمة زبائن الذكاء الاصطناعي + الويب3 كهدف أساسي لها. يتكون هذا القطاع أساسًا من مستويين رئيسيين:

  1. منصة مشاركة وتأجير موارد الحوسبة السحابية اللامركزية نسبيًا نقية: مشاريع الذكاء الاصطناعي المبكرة مثل Render Network و Akash Network وغيرها تندرج ضمن هذه الفئة.
  • الميزة التنافسية الأساسية في هذا القطاع تكمن في موارد الطاقة الحاسوبية، مما يمكن من الوصول إلى مجموعة متنوعة من مقدمي الخدمات، وإنشاء شبكة سريعة، وتقديم منتجات سهلة الاستخدام. الشركات الرائدة في السوق مثل شركات الحوسبة السحابية والمنقبون موضعها جيد للاستفادة من هذه الفرصة.
  • مع عتبات المنتج المنخفضة وقدرات الإطلاق السريعة، أظهرت البنية التحتية المثبتة مثل Render Network و Akash Network نموا ملحوظا وتحتفظ بميزة تنافسية.
  • ومع ذلك، يواجه المشاركون الجدد في السوق تحديات فيما يتعلق بتجانس المنتج. لقد أدى الاتجاه الحالي والحواجز المنخفضة للدخول إلى تدفق مشاريع تركز على قوة الحوسبة المشتركة والتأجير. بينما تفتقر هذه العروض إلى التمييز، إلا أن هناك حاجة متزايدة إلى مزايا تنافسية متميزة.
  • يستهدف مزودو الخدمات عمومًا العملاء الذين لديهم متطلبات حوسبة أساسية. على سبيل المثال، تختص شبكة Render في خدمات العرض، بينما تقدم شبكة Akash موارد وحدة المعالجة المركزية المحسنة. بينما تكفي تأجير موارد الحوسبة البسيطة لمهام الذكاء الاصطناعي الأساسية، إلا أنها غير كافية لتلبية الاحتياجات الشاملة لعمليات الذكاء الاصطناعي المعقدة مثل التدريب والضبط الدقيق والاستنتاج.
  1. مع تقديم خدمات الحوسبة اللامركزية وسير العمل لتعلم الآلة، تمكن العديد من المشاريع الناشئة مؤخرًا من تأمين تمويل كبير، بما في ذلك Gensyn، io.net، Ritual، وغيرها.
  • الحوسبة اللامركزية ترفع أساس التقييم في الصناعة. حيث تقف الطاقة الحاسوبية كرواية حاسمة في تطوير الذكاء الاصطناعي، تميل المشاريع المتجذرة في الطاقة الحاسوبية إلى الاعتماد على نماذج أعمال أكثر صلابة وإمكانات عالية، مما يؤدي إلى تقييمات أعلى مقارنة بالمشاريع الوسيطة بشكلٍ نقي.
  • تؤسس خدمات الطبقة المتوسطة مزايا مميزة. تعمل الخدمات التي تقدمها الطبقة الوسطى كحواف تنافسية للبنى التحتية للحوسبة هذه ، وتشمل وظائف مثل oracles و verifiers التي تسهل مزامنة الحسابات داخل وخارج السلسلة على السلسلة الذكاء الاصطناعي ، وأدوات النشر والإدارة التي تدعم سير العمل الذكاء الاصطناعي العام ، وأكثر من ذلك. يتميز سير العمل الذكاء الاصطناعي بالتعاون والتغذية الراجعة المستمرة والتعقيد العالي ، مما يستلزم قوة حوسبة عبر مراحل مختلفة. لذلك ، تظهر طبقة البرامج الوسيطة سهلة الاستخدام وتعاونية للغاية وقادرة على تلبية الاحتياجات المعقدة لمطوري الذكاء الاصطناعي كأصل تنافسي ، لا سيما في مجال Web3 ، تلبي متطلبات مطوري Web3 الذكاء الاصطناعي. هذه الخدمات مناسبة بشكل أفضل لأسواق التطبيقات الذكاء الاصطناعي المحتملة ، بما يتجاوز دعم الحوسبة الأساسية.
  • فرق العمل ذات الخبرة المهنية في مجال تشغيل وصيانة تعلم الآلة عادة ما تكون أساسية. يجب على الفرق التي تقدم خدمات الطبقة الوسطى أن تمتلك فهمًا شاملاً لسير عمل تعلم الآلة بأكمله لتلبية متطلبات دورة حياة المطورين بشكل فعال. بينما تستفيد مثل هذه الخدمات في كثير من الأحيان من الأطر البرمجية مفتوحة المصدر والأدوات الحالية دون الحاجة إلى ابتكار تقني كبير، إلا أنها تتطلب فريقًا ذا تجربة وقدرات هندسية قوية، لتكون كميزة تنافسية للمشروع.

بتقديم خدمات بأسعار أكثر تنافسية من خدمات الحوسبة السحابية المركزية، مع الحفاظ على مرافق الدعم وتجارب المستخدمين المقارنة، حاز هذا المشروع على اعتراف من المستثمرين البارزين. ومع ذلك، يشكل التعقيد التقني المتزايد تحديا كبيرا. حاليا، يكون المشروع في مرحلة السرد والتطوير، دون وجود منتج مطلق بالكامل حتى الآن.

مشروع تمثيلي

1. شبكة العرض

شبكة رندر هي منصة عالمية للتقديم على أساس تقنية سلسلة الكتل التي تستفيد من وحدات معالجة الرسومات الموزعة لتقديم خدمات تقديم ثلاثي الأبعاد فعالة من حيث التكلفة والكفاءة للمبدعين. عند تأكيد المبدع على نتائج التقديم، تقوم شبكة السلسلة الكتلية بإرسال مكافآت الرموز إلى العقد. تتميز المنصة بشبكة توزيعية لجدولة وتخصيص وحدات معالجة الرسومات، حيث يتم تعيين المهام استنادًا إلى استخدام العقد، السمعة، وعوامل أخرى لتحسين كفاءة الحوسبة، وتقليل الموارد الخاملة، وتقليل النفقات.

عملة RNDR الخاصة بالمنصة تعمل كعملة دفع داخل النظام البيئي. يمكن للمستخدمين استخدام RNDR لتسوية رسوم خدمات العرض، بينما يكسب مقدمو الخدمات مكافآت RNDR عن طريق تقديم قدرة الحوسبة لإكمال مهام العرض. يتم تعديل تسعير خدمات العرض بشكل ديناميكي استجابةً لاستخدام الشبكة الحالي ومقاييس أخرى ذات الصلة.

ثبت أن التقديم يثبت كونه حالة استخدام مناسبة ومثبتة لهندسة الحوسبة الموزعة. طبيعة مهام العرض تسمح بتقسيمها إلى مهام فرعية متعددة تُنفذ بشكل متواز، مما يقلل من التواصل والتفاعل بين المهام. يعمل هذا النهج على التخفيف من عيوب هندسة الحوسبة الموزعة بينما يستغل الشبكة الواسعة لعقد GPU لدفع كفاءة التكلفة.

طلب شبكة العرض كبير، حيث قام المستخدمون بعرض أكثر من 16 مليون إطار وما يقرب من 500000 مشهد على المنصة منذ إنشائها في عام 2017. حجم وظائف العرض والعقد النشطة مستمر في الارتفاع. وعلاوة على ذلك، في الربع الأول من عام 2023، قدمت شبكة العرض مجموعة أدوات استقرار AI مدمجة بشكل أصلي، مما يتيح للمستخدمين دمج عمليات الانتشار المستقرة. هذا التوسع خارج عمليات العرض يشير إلى خطوة استراتيجية في مجال تطبيقات الذكاء الاصطناعي.

2.Gensyn.ai

يعمل Gensyn كشبكة عالمية لتجميع الحواسيب الضخمة متخصصة في الحوسبة العميقة، مستخدمة بروتوكول Polkadot L1. في عام 2023، نجحت المنصة في تأمين 43 مليون دولار في جولة تمويل السلسلة A، بقيادة a16z. يمتد الإطار المعماري لـ Gensyn بعيدًا عن تجميع قوة الحوسبة الموزعة للبنية التحتية ليشمل نظام التحقق من الطبقة العلوية. يضمن هذا النظام أن الحوسبات الخارج سلسلة الكتل تتوافق مع متطلبات السلسلة من خلال التحقق من البلوكشين، وإقامة شبكة آلية للتعلم بدون ثقة.

بالنسبة لقوة الحوسبة الموزعة، يتيح Gensyn مجموعة متنوعة من الأجهزة، بدءًا من مراكز البيانات ذات الطاقة الزائدة إلى أجهزة الكمبيوتر المحمولة الشخصية التي تحتوي على وحدات GPU محتملة. يقوم بتوحيد هذه الأجهزة في نادٍ افتراضي موحد يمكن للمطورين الوصول إليه لاستخدام الند للند حسب الطلب. تهدف Gensyn إلى إنشاء سوق حيث يتم تحديد الأسعار بواسطة القوى السوقية، معززة التضمن وتمكين تكاليف حوسبة ML من تحقيق مستويات عادلة.

يقف نظام التحقق كمفهوم حيوي لـ Gensyn، مع الهدف من التحقق من دقة مهام التعلم الآلي كما هو محدد. إنه يقدم نهج تحقق مبتكر يضمن دليل التعلم الاحتمالي، وبروتوكول تحديد الموقع الدقيق القائم على الرسوم البيانية، و Truebit. توفر هذه الميزات التقنية الأساسية للعبة الحوافز كفاءة محسنة مقارنة بأساليب التحقق التقليدية في سلسلة الكتل. يشمل المشاركون في الشبكة المقدمون، والمحللون، والتحقق، والمبلغين عن الفساد، الذين يسهمون جماعيا في عملية التحقق.

بناءً على البيانات الاختبارية الشاملة المفصلة في ورقة البيض الخاصة ببروتوكول جينسين، تتضمن المزايا الملحوظة للمنصة:

  • تخفيض التكاليف في تدريب نموذج الذكاء الاصطناعي: يقدم بروتوكول Gensyn حوسبة معادلة لـ NVIDIA V100 بتكلفة تُقدر بحوالي 0.40 دولار في الساعة، مما يقدم توفيرًا بنسبة 80% مقارنة بحوسبة AWS عند الطلب.
  • تحسين الكفاءة في شبكة التحقق بدون ثقة: تشير نتائج الاختبار المذكورة في الكتاب الأبيض إلى تحسين كبير في وقت تدريب النموذج باستخدام بروتوكول Gensyn. لقد شهدت النفقات الزائدة على الوقت تحسينًا ملحوظًا بنسبة 1,350٪ مقارنة بالتكرار Truebit وتحسين استثنائي بنسبة 2,522,477٪ مقارنة بـ Ethereum.

ومع ذلك، يقدم قوة الحوسبة الموزعة في الوقت نفسه زيادة لا مفر منها في وقت التدريب مقارنة بالتدريب المحلي، ناتجة عن التحديات في التواصل والشبكة. بناءً على البيانات الاختبارية، يتسبب بروتوكول Gensyn في تكاليف زمنية إضافية تبلغ حوالي 46٪ في تدريب النموذج.

3. شبكة أكاش

يعمل شبكة Akash كمنصة حوسبة سحابية موزعة تدمج عناصر تقنية متنوعة لتمكين المستخدمين من نشر التطبيقات وإدارتها بكفاءة داخل بيئة سحابية لامركزية. في جوهرها، توفر للمستخدمين القدرة على استئجار موارد الحوسبة الموزعة.

في قلب عكاش تكمن شبكة من مزودي خدمات البنية التحتية المنتشرة على مستوى العالم ، والتي تقدم موارد وحدة المعالجة المركزية ووحدة معالجة الرسومات والذاكرة والتخزين. يوفر هؤلاء المزودون موارد لتأجير المستخدمين من خلال مجموعة Kubernetes العليا. يمكن للمستخدمين نشر التطبيقات كحاويات Docker للاستفادة من خدمات البنية التحتية الفعالة من حيث التكلفة. بالإضافة إلى ذلك ، يطبق عكاش نهج "المزاد العكسي" لزيادة انخفاض أسعار الموارد. وفقا للتقديرات على موقع Akash الرسمي ، فإن تكاليف خدمة المنصة أقل بنسبة 80٪ تقريبا من تكاليف الخوادم المركزية.

4.io.net

io.net تقف كشبكة حوسبة لامركزية تربط وحدات معالجة الرسوميات الموزعة عالميًا لتوفير الدعم الحسابي لتدريب نماذج الذكاء الاصطناعي والاستدلال. بعد اختتام جولة تمويل سلسلة A بقيمة 30 مليون دولار مؤخرًا، تتباهى المنصة الآن بقيمة تقديرية تبلغ مليار دولار.

متميزة عن منصات مثل Render و Akash، io.net تظهر كشبكة حوسبة لامركزية قوية وقابلة للتوسيع، مرتبطة بشكل دقيق بعدة طبقات من أدوات المطور. تتضمن ميزاتها الرئيسية:

  • تجميع موارد الحوسبة المتنوعة: الوصول إلى وحدات المعالجة الرسومية من مراكز البيانات المستقلة، ومنقبي العملات المشفرة، ومشاريع مثل Filecoin و Render.
  • الدعم الأساسي لمتطلبات الذكاء الاصطناعي: تشمل القدرات الخدمية الأساسية التنبؤ بالدفعات وخدمة النموذج، والتدريب المتوازي، وضبط الأهمية الفائقة، والتعلم التعزيزي.
  • تكنولوجيا متقدمة للبيئات السحابية المحسنة: تضم مجموعة من أدوات التنظيم، وأطر عمل الذكاء الاصطناعي لتخصيص موارد الحوسبة، وتنفيذ الخوارزميات، وتدريب النماذج، وعمليات الاستدلال، وحلول تخزين البيانات، ومراقبة وحدات معالجة الرسومات (GPU)، وأدوات الإدارة.
  • قدرات الحوسبة المتوازية: دمج Ray، إطار الحوسبة الموزعة مفتوح المصدر، واستغلال التوازي الأصلي لـ Ray لتوازي Python بكفاءة لتنفيذ المهام الديناميكية. تسهل تخزيناته في الذاكرة المتعاقبة مشاركة البيانات السريعة بين المهام، مما يقضي على تأخيرات التسلسل. علاوة على ذلك، يمتد io.net إلى ما وراء Python من خلال دمج إطارات ML البارزة الأخرى مثل PyTorch وTensorFlow، مما يعزز قدرة التوسع.

بالنسبة للتسعير، يقدر موقع الويب الرسمي io.net أن تكون أسعاره حوالي 90% أقل من تلك الخدمات المركزية للحوسبة السحابية.

وبالإضافة إلى ذلك، سيكون عملة IO الأصلية ل io.net تستخدم في المقام الأول كآلية دفع ومكافأت ضمن النظام البيئي. على الجانب الآخر، يمكن للطالبين اعتماد نموذج مشابه لـ Helium عن طريق تحويل عملة IO إلى العملة الثابتة "نقاط IOSD" للمعاملات.

تنصل:

  1. هذه المقالة مأخوذة من [بلوكشين وانشيانغ], العنوان الأصلي هو "طريق التطوير المستقبلي AI+Web3 (2) ): البنية التحتية", حقوق النشر تنتمي إلى الكاتب الأصلي [وانشيانغ بلوكتشين]. إذا كانت هناك اعتراضات على هذه الإعادة طبع، يرجى الاتصال بالفريق تعلم جيت، وسوف يتعاملون معها على الفور.

  2. إخلاء المسؤولية عن المسؤولية: الآراء والآراء الواردة في هذه المقالة تعبر فقط عن رأي الكاتب ولا تشكل أي نصيحة استثمارية.

  3. تتم ترجمة المقال إلى لغات أخرى من قبل فريق Gate Learn. دون ذكرGate.io, النص المترجم قد لا يتم نسخه أو توزيعه أو سرقته.

شرح مفصل لبنية الذكاء الاصطناعي + ويب3

متوسط3/29/2024, 7:41:47 PM
تتناول المشاريع الرئيسية في طبقة البنية التحتية لصناعة الذكاء الاصطناعي والويب3 بشكل أساسي شبكة الحوسبة اللامركزية كسرد رئيسي، وتكلفة منخفضة كميزة رئيسية، والحوافز بالرموز التشفيرية كوسيلة رئيسية لتوسيع الشبكة، وخدمة العملاء في مجال الذكاء الاصطناعي والويب3 كهدف رئيسي.

العنوان الأصلي المحول: مسار تطوير المستقبل AI+Web3 (2): الفصل الأساسي

البنية التحتية هي الاتجاه النمو الحتمي لتطوير الذكاء الاصطناعي

1. الطلب المتزايد على الحوسبة الذكية

في السنوات الأخيرة، شهد الطلب على قوة الحسابات نموًا سريعًا، خاصة بعد ظهور نموذج LLM الكبير. لقد أثر هذا الارتفاع الكبير في الطلب على قوة الحسابات الذكية بشكل كبير على سوق الحوسبة عالية الأداء. تكشف بيانات OpenAI عن اتجاه ملحوظ منذ عام 2012، حيث تعمل قوة الحسابات المستخدمة لتدريب أكبر نماذج الذكاء الاصطناعي على النمو بشكل متسارع، مضاعفة كل 3-4 أشهر في المتوسط، تجاوزت معدل النمو الذي تنبأ به قانون مور. أدى الطلب المتزايد على تطبيقات الذكاء الاصطناعي إلى زيادة سريعة في الحاجة إلى أجهزة الحاسوب. تشير التوقعات إلى أنه بحلول عام 2025، من المتوقع أن يرتفع الطلب على أجهزة الحاسوب الذكية الناتج عن تطبيقات الذكاء الاصطناعي بنسبة تقدر بحوالي 10% إلى 15%.

مدفوعة بالطلب على قوة الحوسبة الذكاء الاصطناعي ، شهدت شركة NVIDIA المصنعة لأجهزة GPU نموا مستمرا في إيرادات مركز البيانات. في الربع الثاني من عام 2023 ، بلغت إيرادات مراكز البيانات 10.32 مليار دولار ، مسجلة زيادة بنسبة 141٪ عن الربع الأول من عام 2023 وزيادة ملحوظة بنسبة 171٪ عن نفس الفترة من العام السابق. بحلول الربع الرابع من السنة المالية 2024 ، استحوذ قطاع مراكز البيانات على أكثر من 83٪ من إجمالي الإيرادات ، حيث شهد نموا متزامنا بنسبة 409٪ ، مع 40٪ تعزى إلى سيناريوهات الاستدلال الكبيرة للنماذج ، مما يشير إلى الطلب القوي على قوة الحوسبة عالية الأداء.

في نفس الوقت، تفرض الحاجة إلى كميات هائلة من البيانات متطلبات كبيرة على التخزين وذاكرة الأجهزة. وخلال مرحلة تدريب النموذج بشكل خاص، يعتبر إدخال المعلمات الشاملة وتخزين البيانات ضروريًا. تشمل رقائق الذاكرة المستخدمة في خوادم الذكاء الاصطناعي بشكل أساسي ذاكرة الوصول العشوائي عالية النطاق (HBM)، وDRAM، وSSD. يجب على بيئات العمل لخوادم الذكاء الاصطناعي توفير سعة متزايدة، وأداء محسن، وتأخير مقلل، وأوقات استجابة أسرع. ووفقًا لحسابات Micron، فإن كمية DRAM في خوادم الذكاء الاصطناعي تفوق ذلك في الخوادم التقليدية بثمانية أضعاف، بينما تتجاوز كمية NAND معايير الخوادم التقليدية بثلاثة أضعاف.

2.تعزيز تكلفة طاقة الحوسبة بفعل عدم التوازن بين العرض والطلب

بشكل عام، يتم استخدام قوة الحساب في المقام الأول في مراحل تدريب وضبط دقيق والاستدلال لنماذج الذكاء الاصطناعي، وخاصة خلال مراحل التدريب والضبط الدقيق. نظرًا لزيادة معلمات البيانات المدخلة ومتطلبات الحساب والطلب المتزايد على التواصل في الحوسبة المتوازية، هناك حاجة إلى معدات GPU أكثر قوة وتواصلًا، غالبًا في شكل مجموعات عتاد GPU عالية الأداء. مع تطور النماذج الكبيرة، يزيد تعقيد الحساب بشكل خطي، الأمر الذي يستدعي مزيدًا من العتاد عالي الأداء لتلبية متطلبات تدريب النموذج.

مأخوذاً GPT-3 كمثال، مع سيناريو يشمل حوالي 13 مليون زيارة مستقلة للمستخدم، فإن الطلب على الشرائح المقابل سيتجاوز 30،000 A100 GPUs. ستصل تكلفة الاستثمار الأولية هذه إلى 800 مليون دولار بشكل مذهل، مع تكاليف تقديرية يومية لتدرؤ النموذج تُقدر بحوالي 700،000 دولار.

وفي الوقت نفسه، تشير تقارير الصناعة إلى أن إمدادات GPU من NVIDIA كانت مقيدة بشكل كبير عالميًا في الربع الرابع من عام 2023، مما أدى إلى عدم توازن ملحوظ بين العرض والطلب في الأسواق العالمية. وكانت القدرة الإنتاجية لدى NVIDIA مقيدة بعوامل مثل TSMC و HBM و تغليف CoWos، ومن المتوقع أن يستمر مشكلة نقص الإمداد بشكل كبير على GPU H100 على الأقل حتى نهاية عام 2024.

لذلك، فقد دفعت الزيادة في الطلب على وحدات GPU عالية الأداء وقيود العرض أسعار مكونات الأجهزة الحالية مثل وحدات GPU إلى الارتفاع. وخاصة بالنسبة للشركات مثل NVIDIA التي تحتل موقعاً أساسياً في سلسلة الصناعة، تزيد الأسعار المرتفعة بفضل سيطرتها على السوق، مما يسمح لها بجني قيمة إضافية. على سبيل المثال، يبلغ تكلفة مواد بطاقة تسريع الذكاء الاصطناعي H100 من NVIDIA حوالي 3,000 دولار، ومع ذلك، وصل سعر بيعها إلى حوالي 35,000 دولار في منتصف عام 2023، وحتى تجاوز 40,000 دولار على موقع eBay.

3. تحتمل البنية التحتية للذكاء الاصطناعي نمو سلسلة الصناعة

تشير تقرير شركة Grand View Research إلى أن حجم سوق الذكاء الاصطناعي السحابي العالمي تم تقديره بنحو 62.63 مليار دولار في عام 2023، ومن المتوقع أن يصل إلى 647.6 مليار دولار بحلول عام 2030، بمعدل نمو سنوي مركب يبلغ 39.6%. تؤكد هذه الأرقام النمو الكبير المحتمل لخدمات الذكاء الاصطناعي السحابي ومساهمتها الكبيرة في سلسلة صناعة الذكاء الاصطناعي بشكل عام.

وفقًا لتقديرات شركة a16z، تتدفق جزء كبير من الأموال في سوق AIGC (الذكاء الاصطناعي والحوسبة العالمية) في نهاية المطاف نحو شركات البنية التحتية. في المتوسط، تخصص شركات التطبيقات حوالي 20-40٪ من إيرادها للاستدلال وضبط الدقة لكل عميل. يُوجه هذا الإنفاق عادةً إلى موفر السحابة لمثيل الحوسبة أو موفر النموذج الخارجي، الذي يخصص بدوره حوالي نصف الإيراد لبنية السحابة. وبناءً على ذلك، من المعقول أن نفترض أن 10-20٪ من إجمالي الإيراد الذي تولده AIGC يتم توجيهه إلى موفري السحابة.

وعلاوة على ذلك، تتمركز نسبة كبيرة من الطلب على قوة الحوسبة حول تدريب نماذج الذكاء الاصطناعي الكبيرة، بما في ذلك مختلف النماذج LLM الواسعة. وخصوصاً بالنسبة لشركات النماذج الصغيرة، يعزى 80-90% من التكاليف إلى قوة الحوسبة الذكية. ومجتمعة، يُتوقع أن تمثل البنية التحتية للحوسبة الذكية، التي تشمل الحوسبة السحابية والأجهزة، أكثر من 50% من القيمة الأولية للسوق.

حوسبة الذكاء الاصطناعي اللامركزية

كما تم مناقشته سابقًا، تظل تكلفة الحوسبة الذكية المركزية مرتفعة حاليًا، نظرًا أساسًا إلى الطلب المتزايد على بنية تحتية عالية الأداء لتدريب الذكاء الاصطناعي. ومع ذلك، توجد كمية كبيرة من الطاقة الحوسبية الشاغرة في السوق، مما يؤدي إلى تفاوت بين العرض والطلب. العوامل الرئيسية التي تسهم في هذا التفاوت تشمل:

  • محدود بالذاكرة ، لا يحتوي تعقيد النموذج على علاقة نمو خطية مع عدد وحدات معالجة الرسومات المطلوبة.: تتمتع وحدات معالجة الرسومات الحالية بمزايا قوة الحوسبة ، لكن تدريب النموذج يتطلب عددا كبيرا من المعلمات ليتم تخزينها في الذاكرة. بالنسبة ل GPT-3 ، على سبيل المثال ، من أجل تدريب نموذج يحتوي على 175 مليار معلمة ، يجب الاحتفاظ بأكثر من 1 تيرابايت من البيانات في الذاكرة - أكثر من أي وحدة معالجة رسومات متاحة اليوم ، مما يتطلب المزيد من وحدات معالجة الرسومات للحوسبة المتوازية والتخزين. ، مما سيؤدي بدوره إلى قوة حوسبة GPU خاملة. على سبيل المثال ، من GPT3 إلى GPT4 ، زاد حجم معلمة النموذج بحوالي 10 مرات ، لكن عدد وحدات معالجة الرسومات المطلوبة زاد بمقدار 24 مرة (دون مراعاة الزيادة في وقت تدريب النموذج). وفقا للتحليل ذي الصلة ، استخدم OpenAI ما يقرب من 2.15e25 FLOPS في تدريب GPT-4 ، وأجرى تدريبا على ما يقرب من 25000 وحدة معالجة رسومات A100 لمدة 90 إلى 100 يوم ، مع استخدام طاقة الحوسبة بنسبة 32٪ إلى 36٪ تقريبا.

استجابة للتحديات الموضحة أعلاه ، يعد السعي وراء تصميم رقائق عالية الأداء أو رقائق ASIC متخصصة مصممة خصيصا لمهام الذكاء الاصطناعي طريقا بارزا يتم استكشافه من قبل العديد من المطورين والمؤسسات الكبرى. نهج آخر ينطوي على الاستخدام الشامل لموارد الحوسبة الحالية لإنشاء شبكة الحوسبة الموزعة ، بهدف تقليل تكاليف طاقة الحوسبة من خلال التأجير والمشاركة والجدولة الفعالة للموارد. بالإضافة إلى ذلك ، يستضيف السوق حاليا فائضا من وحدات معالجة الرسومات ووحدات المعالجة المركزية الخاملة من فئة المستهلك. في حين أن الوحدات الفردية قد تفتقر إلى قوة حوسبة قوية ، إلا أنها يمكن أن تلبي بشكل فعال المتطلبات الحسابية الحالية في سيناريوهات محددة أو عند دمجها مع شرائح عالية الأداء. بشكل حاسم ، يعد ضمان إمدادات وافرة أمرا ضروريا ، حيث يمكن تقليل التكاليف بشكل أكبر من خلال جدولة الشبكة الموزعة.

وبالتالي، ظهر التحول نحو قوة الحوسبة الموزعة كاتجاه رئيسي في تقدم بنية الذكاء الاصطناعي. في الوقت نفسه، نظرًا للتوافق المفاهيمي بين Web3 والأنظمة الموزعة، أصبحت شبكات قوى الحوسبة اللامركزية تركيزًا رئيسيًا في منظر بنية Web3+AI. حاليًا، تقدم منصات قوى الحوسبة اللامركزية في سوق Web3 أسعارًا تكون عمومًا 80%-90% أقل من خدمات الحوسبة السحابية المركزية.

بينما يلعب التخزين دورًا حيويًا في البنية التحتية للذكاء الاصطناعي، يحمل التخزين المركزي مزايا مميزة من حيث النطاق والاستخدام وانخفاض التأخير. ومع ذلك، نظرًا للكفاءة التكلفية الملحوظة التي يقدمونها، تحمل شبكات الحوسبة الموزعة إمكانات سوقية كبيرة وتستفيد بشكل كبير من توسع سوق الذكاء الاصطناعي المتزايد.

  • يمثل استدلال النموذج والتدريب على النموذج الصغير السيناريوهات الأساسية لقوة الحوسبة الموزعة الحالية. يؤدي تشتت موارد الحوسبة في الأنظمة الموزعة حتما إلى تحديات الاتصال بين وحدات معالجة الرسومات ، مما قد يؤدي إلى انخفاض أداء الحوسبة. وبالتالي ، فإن قوة الحوسبة الموزعة هي الأنسب للسيناريوهات التي تتطلب الحد الأدنى من الاتصال ويمكن أن تدعم المهام المتوازية بشكل فعال. تتضمن هذه السيناريوهات مرحلة الاستدلال لنماذج الذكاء الاصطناعي الشاملة والنماذج الصغيرة ذات المعلمات الأقل نسبيا ، مما يقلل من تأثيرات الأداء. بالنظر إلى المستقبل ، مع تطور التطبيقات الذكاء الاصطناعي ، يظهر التفكير كشرط حاسم في طبقة التطبيق. بالنظر إلى أن معظم الشركات تفتقر إلى القدرة على تدريب النماذج الكبيرة بشكل مستقل ، فإن قوة الحوسبة الموزعة تحتفظ بإمكانات سوقية كبيرة على المدى الطويل.
  • هناك ارتفاع في الأطر العالية الأداء الموزعة المصممة للحوسبة الموازية على نطاق واسع. إطارات الحوسبة الموزعة مفتوحة المصدر والمبتكرة مثل PyTorch و Ray و DeepSpeed توفر للمطورين دعمًا أساسيًا قويًا للاستفادة من قوة الحوسبة الموزعة في تدريب النماذج. يعزز هذا التقدم قابلية استخدام قوة الحوسبة الموزعة في سوق الذكاء الاصطناعي المستقبلي، مما يسهل دمجه في تطبيقات الذكاء الاصطناعي المختلفة.

المنطق السردي لمشاريع البنية التحتية AI+Web3

يظهر قطاع البنية التحتية الذكية الموزعة طلبًا قويًا وآفاق نمو طويلة الأجل كبيرة، مما يجعله مجالًا جذابًا لرأس المال الاستثماري. حاليًا، تتمحور المشاريع الأساسية ضمن طبقة البنية التحتية لصناعة الذكاء الاصطناعي + الويب3 حولًا بشكل أساسي حول شبكات الحوسبة اللامركزية. تشدد هذه المشاريع على تكاليف منخفضة كميزة رئيسية، وتستخدم حوافز الرموز لتوسيع شبكاتها، وتعطي الأولوية لخدمة زبائن الذكاء الاصطناعي + الويب3 كهدف أساسي لها. يتكون هذا القطاع أساسًا من مستويين رئيسيين:

  1. منصة مشاركة وتأجير موارد الحوسبة السحابية اللامركزية نسبيًا نقية: مشاريع الذكاء الاصطناعي المبكرة مثل Render Network و Akash Network وغيرها تندرج ضمن هذه الفئة.
  • الميزة التنافسية الأساسية في هذا القطاع تكمن في موارد الطاقة الحاسوبية، مما يمكن من الوصول إلى مجموعة متنوعة من مقدمي الخدمات، وإنشاء شبكة سريعة، وتقديم منتجات سهلة الاستخدام. الشركات الرائدة في السوق مثل شركات الحوسبة السحابية والمنقبون موضعها جيد للاستفادة من هذه الفرصة.
  • مع عتبات المنتج المنخفضة وقدرات الإطلاق السريعة، أظهرت البنية التحتية المثبتة مثل Render Network و Akash Network نموا ملحوظا وتحتفظ بميزة تنافسية.
  • ومع ذلك، يواجه المشاركون الجدد في السوق تحديات فيما يتعلق بتجانس المنتج. لقد أدى الاتجاه الحالي والحواجز المنخفضة للدخول إلى تدفق مشاريع تركز على قوة الحوسبة المشتركة والتأجير. بينما تفتقر هذه العروض إلى التمييز، إلا أن هناك حاجة متزايدة إلى مزايا تنافسية متميزة.
  • يستهدف مزودو الخدمات عمومًا العملاء الذين لديهم متطلبات حوسبة أساسية. على سبيل المثال، تختص شبكة Render في خدمات العرض، بينما تقدم شبكة Akash موارد وحدة المعالجة المركزية المحسنة. بينما تكفي تأجير موارد الحوسبة البسيطة لمهام الذكاء الاصطناعي الأساسية، إلا أنها غير كافية لتلبية الاحتياجات الشاملة لعمليات الذكاء الاصطناعي المعقدة مثل التدريب والضبط الدقيق والاستنتاج.
  1. مع تقديم خدمات الحوسبة اللامركزية وسير العمل لتعلم الآلة، تمكن العديد من المشاريع الناشئة مؤخرًا من تأمين تمويل كبير، بما في ذلك Gensyn، io.net، Ritual، وغيرها.
  • الحوسبة اللامركزية ترفع أساس التقييم في الصناعة. حيث تقف الطاقة الحاسوبية كرواية حاسمة في تطوير الذكاء الاصطناعي، تميل المشاريع المتجذرة في الطاقة الحاسوبية إلى الاعتماد على نماذج أعمال أكثر صلابة وإمكانات عالية، مما يؤدي إلى تقييمات أعلى مقارنة بالمشاريع الوسيطة بشكلٍ نقي.
  • تؤسس خدمات الطبقة المتوسطة مزايا مميزة. تعمل الخدمات التي تقدمها الطبقة الوسطى كحواف تنافسية للبنى التحتية للحوسبة هذه ، وتشمل وظائف مثل oracles و verifiers التي تسهل مزامنة الحسابات داخل وخارج السلسلة على السلسلة الذكاء الاصطناعي ، وأدوات النشر والإدارة التي تدعم سير العمل الذكاء الاصطناعي العام ، وأكثر من ذلك. يتميز سير العمل الذكاء الاصطناعي بالتعاون والتغذية الراجعة المستمرة والتعقيد العالي ، مما يستلزم قوة حوسبة عبر مراحل مختلفة. لذلك ، تظهر طبقة البرامج الوسيطة سهلة الاستخدام وتعاونية للغاية وقادرة على تلبية الاحتياجات المعقدة لمطوري الذكاء الاصطناعي كأصل تنافسي ، لا سيما في مجال Web3 ، تلبي متطلبات مطوري Web3 الذكاء الاصطناعي. هذه الخدمات مناسبة بشكل أفضل لأسواق التطبيقات الذكاء الاصطناعي المحتملة ، بما يتجاوز دعم الحوسبة الأساسية.
  • فرق العمل ذات الخبرة المهنية في مجال تشغيل وصيانة تعلم الآلة عادة ما تكون أساسية. يجب على الفرق التي تقدم خدمات الطبقة الوسطى أن تمتلك فهمًا شاملاً لسير عمل تعلم الآلة بأكمله لتلبية متطلبات دورة حياة المطورين بشكل فعال. بينما تستفيد مثل هذه الخدمات في كثير من الأحيان من الأطر البرمجية مفتوحة المصدر والأدوات الحالية دون الحاجة إلى ابتكار تقني كبير، إلا أنها تتطلب فريقًا ذا تجربة وقدرات هندسية قوية، لتكون كميزة تنافسية للمشروع.

بتقديم خدمات بأسعار أكثر تنافسية من خدمات الحوسبة السحابية المركزية، مع الحفاظ على مرافق الدعم وتجارب المستخدمين المقارنة، حاز هذا المشروع على اعتراف من المستثمرين البارزين. ومع ذلك، يشكل التعقيد التقني المتزايد تحديا كبيرا. حاليا، يكون المشروع في مرحلة السرد والتطوير، دون وجود منتج مطلق بالكامل حتى الآن.

مشروع تمثيلي

1. شبكة العرض

شبكة رندر هي منصة عالمية للتقديم على أساس تقنية سلسلة الكتل التي تستفيد من وحدات معالجة الرسومات الموزعة لتقديم خدمات تقديم ثلاثي الأبعاد فعالة من حيث التكلفة والكفاءة للمبدعين. عند تأكيد المبدع على نتائج التقديم، تقوم شبكة السلسلة الكتلية بإرسال مكافآت الرموز إلى العقد. تتميز المنصة بشبكة توزيعية لجدولة وتخصيص وحدات معالجة الرسومات، حيث يتم تعيين المهام استنادًا إلى استخدام العقد، السمعة، وعوامل أخرى لتحسين كفاءة الحوسبة، وتقليل الموارد الخاملة، وتقليل النفقات.

عملة RNDR الخاصة بالمنصة تعمل كعملة دفع داخل النظام البيئي. يمكن للمستخدمين استخدام RNDR لتسوية رسوم خدمات العرض، بينما يكسب مقدمو الخدمات مكافآت RNDR عن طريق تقديم قدرة الحوسبة لإكمال مهام العرض. يتم تعديل تسعير خدمات العرض بشكل ديناميكي استجابةً لاستخدام الشبكة الحالي ومقاييس أخرى ذات الصلة.

ثبت أن التقديم يثبت كونه حالة استخدام مناسبة ومثبتة لهندسة الحوسبة الموزعة. طبيعة مهام العرض تسمح بتقسيمها إلى مهام فرعية متعددة تُنفذ بشكل متواز، مما يقلل من التواصل والتفاعل بين المهام. يعمل هذا النهج على التخفيف من عيوب هندسة الحوسبة الموزعة بينما يستغل الشبكة الواسعة لعقد GPU لدفع كفاءة التكلفة.

طلب شبكة العرض كبير، حيث قام المستخدمون بعرض أكثر من 16 مليون إطار وما يقرب من 500000 مشهد على المنصة منذ إنشائها في عام 2017. حجم وظائف العرض والعقد النشطة مستمر في الارتفاع. وعلاوة على ذلك، في الربع الأول من عام 2023، قدمت شبكة العرض مجموعة أدوات استقرار AI مدمجة بشكل أصلي، مما يتيح للمستخدمين دمج عمليات الانتشار المستقرة. هذا التوسع خارج عمليات العرض يشير إلى خطوة استراتيجية في مجال تطبيقات الذكاء الاصطناعي.

2.Gensyn.ai

يعمل Gensyn كشبكة عالمية لتجميع الحواسيب الضخمة متخصصة في الحوسبة العميقة، مستخدمة بروتوكول Polkadot L1. في عام 2023، نجحت المنصة في تأمين 43 مليون دولار في جولة تمويل السلسلة A، بقيادة a16z. يمتد الإطار المعماري لـ Gensyn بعيدًا عن تجميع قوة الحوسبة الموزعة للبنية التحتية ليشمل نظام التحقق من الطبقة العلوية. يضمن هذا النظام أن الحوسبات الخارج سلسلة الكتل تتوافق مع متطلبات السلسلة من خلال التحقق من البلوكشين، وإقامة شبكة آلية للتعلم بدون ثقة.

بالنسبة لقوة الحوسبة الموزعة، يتيح Gensyn مجموعة متنوعة من الأجهزة، بدءًا من مراكز البيانات ذات الطاقة الزائدة إلى أجهزة الكمبيوتر المحمولة الشخصية التي تحتوي على وحدات GPU محتملة. يقوم بتوحيد هذه الأجهزة في نادٍ افتراضي موحد يمكن للمطورين الوصول إليه لاستخدام الند للند حسب الطلب. تهدف Gensyn إلى إنشاء سوق حيث يتم تحديد الأسعار بواسطة القوى السوقية، معززة التضمن وتمكين تكاليف حوسبة ML من تحقيق مستويات عادلة.

يقف نظام التحقق كمفهوم حيوي لـ Gensyn، مع الهدف من التحقق من دقة مهام التعلم الآلي كما هو محدد. إنه يقدم نهج تحقق مبتكر يضمن دليل التعلم الاحتمالي، وبروتوكول تحديد الموقع الدقيق القائم على الرسوم البيانية، و Truebit. توفر هذه الميزات التقنية الأساسية للعبة الحوافز كفاءة محسنة مقارنة بأساليب التحقق التقليدية في سلسلة الكتل. يشمل المشاركون في الشبكة المقدمون، والمحللون، والتحقق، والمبلغين عن الفساد، الذين يسهمون جماعيا في عملية التحقق.

بناءً على البيانات الاختبارية الشاملة المفصلة في ورقة البيض الخاصة ببروتوكول جينسين، تتضمن المزايا الملحوظة للمنصة:

  • تخفيض التكاليف في تدريب نموذج الذكاء الاصطناعي: يقدم بروتوكول Gensyn حوسبة معادلة لـ NVIDIA V100 بتكلفة تُقدر بحوالي 0.40 دولار في الساعة، مما يقدم توفيرًا بنسبة 80% مقارنة بحوسبة AWS عند الطلب.
  • تحسين الكفاءة في شبكة التحقق بدون ثقة: تشير نتائج الاختبار المذكورة في الكتاب الأبيض إلى تحسين كبير في وقت تدريب النموذج باستخدام بروتوكول Gensyn. لقد شهدت النفقات الزائدة على الوقت تحسينًا ملحوظًا بنسبة 1,350٪ مقارنة بالتكرار Truebit وتحسين استثنائي بنسبة 2,522,477٪ مقارنة بـ Ethereum.

ومع ذلك، يقدم قوة الحوسبة الموزعة في الوقت نفسه زيادة لا مفر منها في وقت التدريب مقارنة بالتدريب المحلي، ناتجة عن التحديات في التواصل والشبكة. بناءً على البيانات الاختبارية، يتسبب بروتوكول Gensyn في تكاليف زمنية إضافية تبلغ حوالي 46٪ في تدريب النموذج.

3. شبكة أكاش

يعمل شبكة Akash كمنصة حوسبة سحابية موزعة تدمج عناصر تقنية متنوعة لتمكين المستخدمين من نشر التطبيقات وإدارتها بكفاءة داخل بيئة سحابية لامركزية. في جوهرها، توفر للمستخدمين القدرة على استئجار موارد الحوسبة الموزعة.

في قلب عكاش تكمن شبكة من مزودي خدمات البنية التحتية المنتشرة على مستوى العالم ، والتي تقدم موارد وحدة المعالجة المركزية ووحدة معالجة الرسومات والذاكرة والتخزين. يوفر هؤلاء المزودون موارد لتأجير المستخدمين من خلال مجموعة Kubernetes العليا. يمكن للمستخدمين نشر التطبيقات كحاويات Docker للاستفادة من خدمات البنية التحتية الفعالة من حيث التكلفة. بالإضافة إلى ذلك ، يطبق عكاش نهج "المزاد العكسي" لزيادة انخفاض أسعار الموارد. وفقا للتقديرات على موقع Akash الرسمي ، فإن تكاليف خدمة المنصة أقل بنسبة 80٪ تقريبا من تكاليف الخوادم المركزية.

4.io.net

io.net تقف كشبكة حوسبة لامركزية تربط وحدات معالجة الرسوميات الموزعة عالميًا لتوفير الدعم الحسابي لتدريب نماذج الذكاء الاصطناعي والاستدلال. بعد اختتام جولة تمويل سلسلة A بقيمة 30 مليون دولار مؤخرًا، تتباهى المنصة الآن بقيمة تقديرية تبلغ مليار دولار.

متميزة عن منصات مثل Render و Akash، io.net تظهر كشبكة حوسبة لامركزية قوية وقابلة للتوسيع، مرتبطة بشكل دقيق بعدة طبقات من أدوات المطور. تتضمن ميزاتها الرئيسية:

  • تجميع موارد الحوسبة المتنوعة: الوصول إلى وحدات المعالجة الرسومية من مراكز البيانات المستقلة، ومنقبي العملات المشفرة، ومشاريع مثل Filecoin و Render.
  • الدعم الأساسي لمتطلبات الذكاء الاصطناعي: تشمل القدرات الخدمية الأساسية التنبؤ بالدفعات وخدمة النموذج، والتدريب المتوازي، وضبط الأهمية الفائقة، والتعلم التعزيزي.
  • تكنولوجيا متقدمة للبيئات السحابية المحسنة: تضم مجموعة من أدوات التنظيم، وأطر عمل الذكاء الاصطناعي لتخصيص موارد الحوسبة، وتنفيذ الخوارزميات، وتدريب النماذج، وعمليات الاستدلال، وحلول تخزين البيانات، ومراقبة وحدات معالجة الرسومات (GPU)، وأدوات الإدارة.
  • قدرات الحوسبة المتوازية: دمج Ray، إطار الحوسبة الموزعة مفتوح المصدر، واستغلال التوازي الأصلي لـ Ray لتوازي Python بكفاءة لتنفيذ المهام الديناميكية. تسهل تخزيناته في الذاكرة المتعاقبة مشاركة البيانات السريعة بين المهام، مما يقضي على تأخيرات التسلسل. علاوة على ذلك، يمتد io.net إلى ما وراء Python من خلال دمج إطارات ML البارزة الأخرى مثل PyTorch وTensorFlow، مما يعزز قدرة التوسع.

بالنسبة للتسعير، يقدر موقع الويب الرسمي io.net أن تكون أسعاره حوالي 90% أقل من تلك الخدمات المركزية للحوسبة السحابية.

وبالإضافة إلى ذلك، سيكون عملة IO الأصلية ل io.net تستخدم في المقام الأول كآلية دفع ومكافأت ضمن النظام البيئي. على الجانب الآخر، يمكن للطالبين اعتماد نموذج مشابه لـ Helium عن طريق تحويل عملة IO إلى العملة الثابتة "نقاط IOSD" للمعاملات.

تنصل:

  1. هذه المقالة مأخوذة من [بلوكشين وانشيانغ], العنوان الأصلي هو "طريق التطوير المستقبلي AI+Web3 (2) ): البنية التحتية", حقوق النشر تنتمي إلى الكاتب الأصلي [وانشيانغ بلوكتشين]. إذا كانت هناك اعتراضات على هذه الإعادة طبع، يرجى الاتصال بالفريق تعلم جيت، وسوف يتعاملون معها على الفور.

  2. إخلاء المسؤولية عن المسؤولية: الآراء والآراء الواردة في هذه المقالة تعبر فقط عن رأي الكاتب ولا تشكل أي نصيحة استثمارية.

  3. تتم ترجمة المقال إلى لغات أخرى من قبل فريق Gate Learn. دون ذكرGate.io, النص المترجم قد لا يتم نسخه أو توزيعه أو سرقته.

Bắt đầu giao dịch
Đăng ký và giao dịch để nhận phần thưởng USDTEST trị giá
$100
$5500