العنوان الأصلي المحول: مسار تطوير المستقبل AI+Web3 (2): الفصل الأساسي
في السنوات الأخيرة، شهد الطلب على قوة الحسابات نموًا سريعًا، خاصة بعد ظهور نموذج LLM الكبير. لقد أثر هذا الارتفاع الكبير في الطلب على قوة الحسابات الذكية بشكل كبير على سوق الحوسبة عالية الأداء. تكشف بيانات OpenAI عن اتجاه ملحوظ منذ عام 2012، حيث تعمل قوة الحسابات المستخدمة لتدريب أكبر نماذج الذكاء الاصطناعي على النمو بشكل متسارع، مضاعفة كل 3-4 أشهر في المتوسط، تجاوزت معدل النمو الذي تنبأ به قانون مور. أدى الطلب المتزايد على تطبيقات الذكاء الاصطناعي إلى زيادة سريعة في الحاجة إلى أجهزة الحاسوب. تشير التوقعات إلى أنه بحلول عام 2025، من المتوقع أن يرتفع الطلب على أجهزة الحاسوب الذكية الناتج عن تطبيقات الذكاء الاصطناعي بنسبة تقدر بحوالي 10% إلى 15%.
مدفوعة بالطلب على قوة الحوسبة الذكاء الاصطناعي ، شهدت شركة NVIDIA المصنعة لأجهزة GPU نموا مستمرا في إيرادات مركز البيانات. في الربع الثاني من عام 2023 ، بلغت إيرادات مراكز البيانات 10.32 مليار دولار ، مسجلة زيادة بنسبة 141٪ عن الربع الأول من عام 2023 وزيادة ملحوظة بنسبة 171٪ عن نفس الفترة من العام السابق. بحلول الربع الرابع من السنة المالية 2024 ، استحوذ قطاع مراكز البيانات على أكثر من 83٪ من إجمالي الإيرادات ، حيث شهد نموا متزامنا بنسبة 409٪ ، مع 40٪ تعزى إلى سيناريوهات الاستدلال الكبيرة للنماذج ، مما يشير إلى الطلب القوي على قوة الحوسبة عالية الأداء.
في نفس الوقت، تفرض الحاجة إلى كميات هائلة من البيانات متطلبات كبيرة على التخزين وذاكرة الأجهزة. وخلال مرحلة تدريب النموذج بشكل خاص، يعتبر إدخال المعلمات الشاملة وتخزين البيانات ضروريًا. تشمل رقائق الذاكرة المستخدمة في خوادم الذكاء الاصطناعي بشكل أساسي ذاكرة الوصول العشوائي عالية النطاق (HBM)، وDRAM، وSSD. يجب على بيئات العمل لخوادم الذكاء الاصطناعي توفير سعة متزايدة، وأداء محسن، وتأخير مقلل، وأوقات استجابة أسرع. ووفقًا لحسابات Micron، فإن كمية DRAM في خوادم الذكاء الاصطناعي تفوق ذلك في الخوادم التقليدية بثمانية أضعاف، بينما تتجاوز كمية NAND معايير الخوادم التقليدية بثلاثة أضعاف.
بشكل عام، يتم استخدام قوة الحساب في المقام الأول في مراحل تدريب وضبط دقيق والاستدلال لنماذج الذكاء الاصطناعي، وخاصة خلال مراحل التدريب والضبط الدقيق. نظرًا لزيادة معلمات البيانات المدخلة ومتطلبات الحساب والطلب المتزايد على التواصل في الحوسبة المتوازية، هناك حاجة إلى معدات GPU أكثر قوة وتواصلًا، غالبًا في شكل مجموعات عتاد GPU عالية الأداء. مع تطور النماذج الكبيرة، يزيد تعقيد الحساب بشكل خطي، الأمر الذي يستدعي مزيدًا من العتاد عالي الأداء لتلبية متطلبات تدريب النموذج.
مأخوذاً GPT-3 كمثال، مع سيناريو يشمل حوالي 13 مليون زيارة مستقلة للمستخدم، فإن الطلب على الشرائح المقابل سيتجاوز 30،000 A100 GPUs. ستصل تكلفة الاستثمار الأولية هذه إلى 800 مليون دولار بشكل مذهل، مع تكاليف تقديرية يومية لتدرؤ النموذج تُقدر بحوالي 700،000 دولار.
وفي الوقت نفسه، تشير تقارير الصناعة إلى أن إمدادات GPU من NVIDIA كانت مقيدة بشكل كبير عالميًا في الربع الرابع من عام 2023، مما أدى إلى عدم توازن ملحوظ بين العرض والطلب في الأسواق العالمية. وكانت القدرة الإنتاجية لدى NVIDIA مقيدة بعوامل مثل TSMC و HBM و تغليف CoWos، ومن المتوقع أن يستمر مشكلة نقص الإمداد بشكل كبير على GPU H100 على الأقل حتى نهاية عام 2024.
لذلك، فقد دفعت الزيادة في الطلب على وحدات GPU عالية الأداء وقيود العرض أسعار مكونات الأجهزة الحالية مثل وحدات GPU إلى الارتفاع. وخاصة بالنسبة للشركات مثل NVIDIA التي تحتل موقعاً أساسياً في سلسلة الصناعة، تزيد الأسعار المرتفعة بفضل سيطرتها على السوق، مما يسمح لها بجني قيمة إضافية. على سبيل المثال، يبلغ تكلفة مواد بطاقة تسريع الذكاء الاصطناعي H100 من NVIDIA حوالي 3,000 دولار، ومع ذلك، وصل سعر بيعها إلى حوالي 35,000 دولار في منتصف عام 2023، وحتى تجاوز 40,000 دولار على موقع eBay.
تشير تقرير شركة Grand View Research إلى أن حجم سوق الذكاء الاصطناعي السحابي العالمي تم تقديره بنحو 62.63 مليار دولار في عام 2023، ومن المتوقع أن يصل إلى 647.6 مليار دولار بحلول عام 2030، بمعدل نمو سنوي مركب يبلغ 39.6%. تؤكد هذه الأرقام النمو الكبير المحتمل لخدمات الذكاء الاصطناعي السحابي ومساهمتها الكبيرة في سلسلة صناعة الذكاء الاصطناعي بشكل عام.
وفقًا لتقديرات شركة a16z، تتدفق جزء كبير من الأموال في سوق AIGC (الذكاء الاصطناعي والحوسبة العالمية) في نهاية المطاف نحو شركات البنية التحتية. في المتوسط، تخصص شركات التطبيقات حوالي 20-40٪ من إيرادها للاستدلال وضبط الدقة لكل عميل. يُوجه هذا الإنفاق عادةً إلى موفر السحابة لمثيل الحوسبة أو موفر النموذج الخارجي، الذي يخصص بدوره حوالي نصف الإيراد لبنية السحابة. وبناءً على ذلك، من المعقول أن نفترض أن 10-20٪ من إجمالي الإيراد الذي تولده AIGC يتم توجيهه إلى موفري السحابة.
وعلاوة على ذلك، تتمركز نسبة كبيرة من الطلب على قوة الحوسبة حول تدريب نماذج الذكاء الاصطناعي الكبيرة، بما في ذلك مختلف النماذج LLM الواسعة. وخصوصاً بالنسبة لشركات النماذج الصغيرة، يعزى 80-90% من التكاليف إلى قوة الحوسبة الذكية. ومجتمعة، يُتوقع أن تمثل البنية التحتية للحوسبة الذكية، التي تشمل الحوسبة السحابية والأجهزة، أكثر من 50% من القيمة الأولية للسوق.
كما تم مناقشته سابقًا، تظل تكلفة الحوسبة الذكية المركزية مرتفعة حاليًا، نظرًا أساسًا إلى الطلب المتزايد على بنية تحتية عالية الأداء لتدريب الذكاء الاصطناعي. ومع ذلك، توجد كمية كبيرة من الطاقة الحوسبية الشاغرة في السوق، مما يؤدي إلى تفاوت بين العرض والطلب. العوامل الرئيسية التي تسهم في هذا التفاوت تشمل:
استجابة للتحديات الموضحة أعلاه ، يعد السعي وراء تصميم رقائق عالية الأداء أو رقائق ASIC متخصصة مصممة خصيصا لمهام الذكاء الاصطناعي طريقا بارزا يتم استكشافه من قبل العديد من المطورين والمؤسسات الكبرى. نهج آخر ينطوي على الاستخدام الشامل لموارد الحوسبة الحالية لإنشاء شبكة الحوسبة الموزعة ، بهدف تقليل تكاليف طاقة الحوسبة من خلال التأجير والمشاركة والجدولة الفعالة للموارد. بالإضافة إلى ذلك ، يستضيف السوق حاليا فائضا من وحدات معالجة الرسومات ووحدات المعالجة المركزية الخاملة من فئة المستهلك. في حين أن الوحدات الفردية قد تفتقر إلى قوة حوسبة قوية ، إلا أنها يمكن أن تلبي بشكل فعال المتطلبات الحسابية الحالية في سيناريوهات محددة أو عند دمجها مع شرائح عالية الأداء. بشكل حاسم ، يعد ضمان إمدادات وافرة أمرا ضروريا ، حيث يمكن تقليل التكاليف بشكل أكبر من خلال جدولة الشبكة الموزعة.
وبالتالي، ظهر التحول نحو قوة الحوسبة الموزعة كاتجاه رئيسي في تقدم بنية الذكاء الاصطناعي. في الوقت نفسه، نظرًا للتوافق المفاهيمي بين Web3 والأنظمة الموزعة، أصبحت شبكات قوى الحوسبة اللامركزية تركيزًا رئيسيًا في منظر بنية Web3+AI. حاليًا، تقدم منصات قوى الحوسبة اللامركزية في سوق Web3 أسعارًا تكون عمومًا 80%-90% أقل من خدمات الحوسبة السحابية المركزية.
بينما يلعب التخزين دورًا حيويًا في البنية التحتية للذكاء الاصطناعي، يحمل التخزين المركزي مزايا مميزة من حيث النطاق والاستخدام وانخفاض التأخير. ومع ذلك، نظرًا للكفاءة التكلفية الملحوظة التي يقدمونها، تحمل شبكات الحوسبة الموزعة إمكانات سوقية كبيرة وتستفيد بشكل كبير من توسع سوق الذكاء الاصطناعي المتزايد.
يظهر قطاع البنية التحتية الذكية الموزعة طلبًا قويًا وآفاق نمو طويلة الأجل كبيرة، مما يجعله مجالًا جذابًا لرأس المال الاستثماري. حاليًا، تتمحور المشاريع الأساسية ضمن طبقة البنية التحتية لصناعة الذكاء الاصطناعي + الويب3 حولًا بشكل أساسي حول شبكات الحوسبة اللامركزية. تشدد هذه المشاريع على تكاليف منخفضة كميزة رئيسية، وتستخدم حوافز الرموز لتوسيع شبكاتها، وتعطي الأولوية لخدمة زبائن الذكاء الاصطناعي + الويب3 كهدف أساسي لها. يتكون هذا القطاع أساسًا من مستويين رئيسيين:
بتقديم خدمات بأسعار أكثر تنافسية من خدمات الحوسبة السحابية المركزية، مع الحفاظ على مرافق الدعم وتجارب المستخدمين المقارنة، حاز هذا المشروع على اعتراف من المستثمرين البارزين. ومع ذلك، يشكل التعقيد التقني المتزايد تحديا كبيرا. حاليا، يكون المشروع في مرحلة السرد والتطوير، دون وجود منتج مطلق بالكامل حتى الآن.
شبكة رندر هي منصة عالمية للتقديم على أساس تقنية سلسلة الكتل التي تستفيد من وحدات معالجة الرسومات الموزعة لتقديم خدمات تقديم ثلاثي الأبعاد فعالة من حيث التكلفة والكفاءة للمبدعين. عند تأكيد المبدع على نتائج التقديم، تقوم شبكة السلسلة الكتلية بإرسال مكافآت الرموز إلى العقد. تتميز المنصة بشبكة توزيعية لجدولة وتخصيص وحدات معالجة الرسومات، حيث يتم تعيين المهام استنادًا إلى استخدام العقد، السمعة، وعوامل أخرى لتحسين كفاءة الحوسبة، وتقليل الموارد الخاملة، وتقليل النفقات.
عملة RNDR الخاصة بالمنصة تعمل كعملة دفع داخل النظام البيئي. يمكن للمستخدمين استخدام RNDR لتسوية رسوم خدمات العرض، بينما يكسب مقدمو الخدمات مكافآت RNDR عن طريق تقديم قدرة الحوسبة لإكمال مهام العرض. يتم تعديل تسعير خدمات العرض بشكل ديناميكي استجابةً لاستخدام الشبكة الحالي ومقاييس أخرى ذات الصلة.
ثبت أن التقديم يثبت كونه حالة استخدام مناسبة ومثبتة لهندسة الحوسبة الموزعة. طبيعة مهام العرض تسمح بتقسيمها إلى مهام فرعية متعددة تُنفذ بشكل متواز، مما يقلل من التواصل والتفاعل بين المهام. يعمل هذا النهج على التخفيف من عيوب هندسة الحوسبة الموزعة بينما يستغل الشبكة الواسعة لعقد GPU لدفع كفاءة التكلفة.
طلب شبكة العرض كبير، حيث قام المستخدمون بعرض أكثر من 16 مليون إطار وما يقرب من 500000 مشهد على المنصة منذ إنشائها في عام 2017. حجم وظائف العرض والعقد النشطة مستمر في الارتفاع. وعلاوة على ذلك، في الربع الأول من عام 2023، قدمت شبكة العرض مجموعة أدوات استقرار AI مدمجة بشكل أصلي، مما يتيح للمستخدمين دمج عمليات الانتشار المستقرة. هذا التوسع خارج عمليات العرض يشير إلى خطوة استراتيجية في مجال تطبيقات الذكاء الاصطناعي.
يعمل Gensyn كشبكة عالمية لتجميع الحواسيب الضخمة متخصصة في الحوسبة العميقة، مستخدمة بروتوكول Polkadot L1. في عام 2023، نجحت المنصة في تأمين 43 مليون دولار في جولة تمويل السلسلة A، بقيادة a16z. يمتد الإطار المعماري لـ Gensyn بعيدًا عن تجميع قوة الحوسبة الموزعة للبنية التحتية ليشمل نظام التحقق من الطبقة العلوية. يضمن هذا النظام أن الحوسبات الخارج سلسلة الكتل تتوافق مع متطلبات السلسلة من خلال التحقق من البلوكشين، وإقامة شبكة آلية للتعلم بدون ثقة.
بالنسبة لقوة الحوسبة الموزعة، يتيح Gensyn مجموعة متنوعة من الأجهزة، بدءًا من مراكز البيانات ذات الطاقة الزائدة إلى أجهزة الكمبيوتر المحمولة الشخصية التي تحتوي على وحدات GPU محتملة. يقوم بتوحيد هذه الأجهزة في نادٍ افتراضي موحد يمكن للمطورين الوصول إليه لاستخدام الند للند حسب الطلب. تهدف Gensyn إلى إنشاء سوق حيث يتم تحديد الأسعار بواسطة القوى السوقية، معززة التضمن وتمكين تكاليف حوسبة ML من تحقيق مستويات عادلة.
يقف نظام التحقق كمفهوم حيوي لـ Gensyn، مع الهدف من التحقق من دقة مهام التعلم الآلي كما هو محدد. إنه يقدم نهج تحقق مبتكر يضمن دليل التعلم الاحتمالي، وبروتوكول تحديد الموقع الدقيق القائم على الرسوم البيانية، و Truebit. توفر هذه الميزات التقنية الأساسية للعبة الحوافز كفاءة محسنة مقارنة بأساليب التحقق التقليدية في سلسلة الكتل. يشمل المشاركون في الشبكة المقدمون، والمحللون، والتحقق، والمبلغين عن الفساد، الذين يسهمون جماعيا في عملية التحقق.
بناءً على البيانات الاختبارية الشاملة المفصلة في ورقة البيض الخاصة ببروتوكول جينسين، تتضمن المزايا الملحوظة للمنصة:
ومع ذلك، يقدم قوة الحوسبة الموزعة في الوقت نفسه زيادة لا مفر منها في وقت التدريب مقارنة بالتدريب المحلي، ناتجة عن التحديات في التواصل والشبكة. بناءً على البيانات الاختبارية، يتسبب بروتوكول Gensyn في تكاليف زمنية إضافية تبلغ حوالي 46٪ في تدريب النموذج.
يعمل شبكة Akash كمنصة حوسبة سحابية موزعة تدمج عناصر تقنية متنوعة لتمكين المستخدمين من نشر التطبيقات وإدارتها بكفاءة داخل بيئة سحابية لامركزية. في جوهرها، توفر للمستخدمين القدرة على استئجار موارد الحوسبة الموزعة.
في قلب عكاش تكمن شبكة من مزودي خدمات البنية التحتية المنتشرة على مستوى العالم ، والتي تقدم موارد وحدة المعالجة المركزية ووحدة معالجة الرسومات والذاكرة والتخزين. يوفر هؤلاء المزودون موارد لتأجير المستخدمين من خلال مجموعة Kubernetes العليا. يمكن للمستخدمين نشر التطبيقات كحاويات Docker للاستفادة من خدمات البنية التحتية الفعالة من حيث التكلفة. بالإضافة إلى ذلك ، يطبق عكاش نهج "المزاد العكسي" لزيادة انخفاض أسعار الموارد. وفقا للتقديرات على موقع Akash الرسمي ، فإن تكاليف خدمة المنصة أقل بنسبة 80٪ تقريبا من تكاليف الخوادم المركزية.
io.net تقف كشبكة حوسبة لامركزية تربط وحدات معالجة الرسوميات الموزعة عالميًا لتوفير الدعم الحسابي لتدريب نماذج الذكاء الاصطناعي والاستدلال. بعد اختتام جولة تمويل سلسلة A بقيمة 30 مليون دولار مؤخرًا، تتباهى المنصة الآن بقيمة تقديرية تبلغ مليار دولار.
متميزة عن منصات مثل Render و Akash، io.net تظهر كشبكة حوسبة لامركزية قوية وقابلة للتوسيع، مرتبطة بشكل دقيق بعدة طبقات من أدوات المطور. تتضمن ميزاتها الرئيسية:
بالنسبة للتسعير، يقدر موقع الويب الرسمي io.net أن تكون أسعاره حوالي 90% أقل من تلك الخدمات المركزية للحوسبة السحابية.
وبالإضافة إلى ذلك، سيكون عملة IO الأصلية ل io.net تستخدم في المقام الأول كآلية دفع ومكافأت ضمن النظام البيئي. على الجانب الآخر، يمكن للطالبين اعتماد نموذج مشابه لـ Helium عن طريق تحويل عملة IO إلى العملة الثابتة "نقاط IOSD" للمعاملات.
هذه المقالة مأخوذة من [بلوكشين وانشيانغ], العنوان الأصلي هو "طريق التطوير المستقبلي AI+Web3 (2) ): البنية التحتية", حقوق النشر تنتمي إلى الكاتب الأصلي [وانشيانغ بلوكتشين]. إذا كانت هناك اعتراضات على هذه الإعادة طبع، يرجى الاتصال بالفريق تعلم جيت، وسوف يتعاملون معها على الفور.
إخلاء المسؤولية عن المسؤولية: الآراء والآراء الواردة في هذه المقالة تعبر فقط عن رأي الكاتب ولا تشكل أي نصيحة استثمارية.
تتم ترجمة المقال إلى لغات أخرى من قبل فريق Gate Learn. دون ذكرGate.io, النص المترجم قد لا يتم نسخه أو توزيعه أو سرقته.
العنوان الأصلي المحول: مسار تطوير المستقبل AI+Web3 (2): الفصل الأساسي
في السنوات الأخيرة، شهد الطلب على قوة الحسابات نموًا سريعًا، خاصة بعد ظهور نموذج LLM الكبير. لقد أثر هذا الارتفاع الكبير في الطلب على قوة الحسابات الذكية بشكل كبير على سوق الحوسبة عالية الأداء. تكشف بيانات OpenAI عن اتجاه ملحوظ منذ عام 2012، حيث تعمل قوة الحسابات المستخدمة لتدريب أكبر نماذج الذكاء الاصطناعي على النمو بشكل متسارع، مضاعفة كل 3-4 أشهر في المتوسط، تجاوزت معدل النمو الذي تنبأ به قانون مور. أدى الطلب المتزايد على تطبيقات الذكاء الاصطناعي إلى زيادة سريعة في الحاجة إلى أجهزة الحاسوب. تشير التوقعات إلى أنه بحلول عام 2025، من المتوقع أن يرتفع الطلب على أجهزة الحاسوب الذكية الناتج عن تطبيقات الذكاء الاصطناعي بنسبة تقدر بحوالي 10% إلى 15%.
مدفوعة بالطلب على قوة الحوسبة الذكاء الاصطناعي ، شهدت شركة NVIDIA المصنعة لأجهزة GPU نموا مستمرا في إيرادات مركز البيانات. في الربع الثاني من عام 2023 ، بلغت إيرادات مراكز البيانات 10.32 مليار دولار ، مسجلة زيادة بنسبة 141٪ عن الربع الأول من عام 2023 وزيادة ملحوظة بنسبة 171٪ عن نفس الفترة من العام السابق. بحلول الربع الرابع من السنة المالية 2024 ، استحوذ قطاع مراكز البيانات على أكثر من 83٪ من إجمالي الإيرادات ، حيث شهد نموا متزامنا بنسبة 409٪ ، مع 40٪ تعزى إلى سيناريوهات الاستدلال الكبيرة للنماذج ، مما يشير إلى الطلب القوي على قوة الحوسبة عالية الأداء.
في نفس الوقت، تفرض الحاجة إلى كميات هائلة من البيانات متطلبات كبيرة على التخزين وذاكرة الأجهزة. وخلال مرحلة تدريب النموذج بشكل خاص، يعتبر إدخال المعلمات الشاملة وتخزين البيانات ضروريًا. تشمل رقائق الذاكرة المستخدمة في خوادم الذكاء الاصطناعي بشكل أساسي ذاكرة الوصول العشوائي عالية النطاق (HBM)، وDRAM، وSSD. يجب على بيئات العمل لخوادم الذكاء الاصطناعي توفير سعة متزايدة، وأداء محسن، وتأخير مقلل، وأوقات استجابة أسرع. ووفقًا لحسابات Micron، فإن كمية DRAM في خوادم الذكاء الاصطناعي تفوق ذلك في الخوادم التقليدية بثمانية أضعاف، بينما تتجاوز كمية NAND معايير الخوادم التقليدية بثلاثة أضعاف.
بشكل عام، يتم استخدام قوة الحساب في المقام الأول في مراحل تدريب وضبط دقيق والاستدلال لنماذج الذكاء الاصطناعي، وخاصة خلال مراحل التدريب والضبط الدقيق. نظرًا لزيادة معلمات البيانات المدخلة ومتطلبات الحساب والطلب المتزايد على التواصل في الحوسبة المتوازية، هناك حاجة إلى معدات GPU أكثر قوة وتواصلًا، غالبًا في شكل مجموعات عتاد GPU عالية الأداء. مع تطور النماذج الكبيرة، يزيد تعقيد الحساب بشكل خطي، الأمر الذي يستدعي مزيدًا من العتاد عالي الأداء لتلبية متطلبات تدريب النموذج.
مأخوذاً GPT-3 كمثال، مع سيناريو يشمل حوالي 13 مليون زيارة مستقلة للمستخدم، فإن الطلب على الشرائح المقابل سيتجاوز 30،000 A100 GPUs. ستصل تكلفة الاستثمار الأولية هذه إلى 800 مليون دولار بشكل مذهل، مع تكاليف تقديرية يومية لتدرؤ النموذج تُقدر بحوالي 700،000 دولار.
وفي الوقت نفسه، تشير تقارير الصناعة إلى أن إمدادات GPU من NVIDIA كانت مقيدة بشكل كبير عالميًا في الربع الرابع من عام 2023، مما أدى إلى عدم توازن ملحوظ بين العرض والطلب في الأسواق العالمية. وكانت القدرة الإنتاجية لدى NVIDIA مقيدة بعوامل مثل TSMC و HBM و تغليف CoWos، ومن المتوقع أن يستمر مشكلة نقص الإمداد بشكل كبير على GPU H100 على الأقل حتى نهاية عام 2024.
لذلك، فقد دفعت الزيادة في الطلب على وحدات GPU عالية الأداء وقيود العرض أسعار مكونات الأجهزة الحالية مثل وحدات GPU إلى الارتفاع. وخاصة بالنسبة للشركات مثل NVIDIA التي تحتل موقعاً أساسياً في سلسلة الصناعة، تزيد الأسعار المرتفعة بفضل سيطرتها على السوق، مما يسمح لها بجني قيمة إضافية. على سبيل المثال، يبلغ تكلفة مواد بطاقة تسريع الذكاء الاصطناعي H100 من NVIDIA حوالي 3,000 دولار، ومع ذلك، وصل سعر بيعها إلى حوالي 35,000 دولار في منتصف عام 2023، وحتى تجاوز 40,000 دولار على موقع eBay.
تشير تقرير شركة Grand View Research إلى أن حجم سوق الذكاء الاصطناعي السحابي العالمي تم تقديره بنحو 62.63 مليار دولار في عام 2023، ومن المتوقع أن يصل إلى 647.6 مليار دولار بحلول عام 2030، بمعدل نمو سنوي مركب يبلغ 39.6%. تؤكد هذه الأرقام النمو الكبير المحتمل لخدمات الذكاء الاصطناعي السحابي ومساهمتها الكبيرة في سلسلة صناعة الذكاء الاصطناعي بشكل عام.
وفقًا لتقديرات شركة a16z، تتدفق جزء كبير من الأموال في سوق AIGC (الذكاء الاصطناعي والحوسبة العالمية) في نهاية المطاف نحو شركات البنية التحتية. في المتوسط، تخصص شركات التطبيقات حوالي 20-40٪ من إيرادها للاستدلال وضبط الدقة لكل عميل. يُوجه هذا الإنفاق عادةً إلى موفر السحابة لمثيل الحوسبة أو موفر النموذج الخارجي، الذي يخصص بدوره حوالي نصف الإيراد لبنية السحابة. وبناءً على ذلك، من المعقول أن نفترض أن 10-20٪ من إجمالي الإيراد الذي تولده AIGC يتم توجيهه إلى موفري السحابة.
وعلاوة على ذلك، تتمركز نسبة كبيرة من الطلب على قوة الحوسبة حول تدريب نماذج الذكاء الاصطناعي الكبيرة، بما في ذلك مختلف النماذج LLM الواسعة. وخصوصاً بالنسبة لشركات النماذج الصغيرة، يعزى 80-90% من التكاليف إلى قوة الحوسبة الذكية. ومجتمعة، يُتوقع أن تمثل البنية التحتية للحوسبة الذكية، التي تشمل الحوسبة السحابية والأجهزة، أكثر من 50% من القيمة الأولية للسوق.
كما تم مناقشته سابقًا، تظل تكلفة الحوسبة الذكية المركزية مرتفعة حاليًا، نظرًا أساسًا إلى الطلب المتزايد على بنية تحتية عالية الأداء لتدريب الذكاء الاصطناعي. ومع ذلك، توجد كمية كبيرة من الطاقة الحوسبية الشاغرة في السوق، مما يؤدي إلى تفاوت بين العرض والطلب. العوامل الرئيسية التي تسهم في هذا التفاوت تشمل:
استجابة للتحديات الموضحة أعلاه ، يعد السعي وراء تصميم رقائق عالية الأداء أو رقائق ASIC متخصصة مصممة خصيصا لمهام الذكاء الاصطناعي طريقا بارزا يتم استكشافه من قبل العديد من المطورين والمؤسسات الكبرى. نهج آخر ينطوي على الاستخدام الشامل لموارد الحوسبة الحالية لإنشاء شبكة الحوسبة الموزعة ، بهدف تقليل تكاليف طاقة الحوسبة من خلال التأجير والمشاركة والجدولة الفعالة للموارد. بالإضافة إلى ذلك ، يستضيف السوق حاليا فائضا من وحدات معالجة الرسومات ووحدات المعالجة المركزية الخاملة من فئة المستهلك. في حين أن الوحدات الفردية قد تفتقر إلى قوة حوسبة قوية ، إلا أنها يمكن أن تلبي بشكل فعال المتطلبات الحسابية الحالية في سيناريوهات محددة أو عند دمجها مع شرائح عالية الأداء. بشكل حاسم ، يعد ضمان إمدادات وافرة أمرا ضروريا ، حيث يمكن تقليل التكاليف بشكل أكبر من خلال جدولة الشبكة الموزعة.
وبالتالي، ظهر التحول نحو قوة الحوسبة الموزعة كاتجاه رئيسي في تقدم بنية الذكاء الاصطناعي. في الوقت نفسه، نظرًا للتوافق المفاهيمي بين Web3 والأنظمة الموزعة، أصبحت شبكات قوى الحوسبة اللامركزية تركيزًا رئيسيًا في منظر بنية Web3+AI. حاليًا، تقدم منصات قوى الحوسبة اللامركزية في سوق Web3 أسعارًا تكون عمومًا 80%-90% أقل من خدمات الحوسبة السحابية المركزية.
بينما يلعب التخزين دورًا حيويًا في البنية التحتية للذكاء الاصطناعي، يحمل التخزين المركزي مزايا مميزة من حيث النطاق والاستخدام وانخفاض التأخير. ومع ذلك، نظرًا للكفاءة التكلفية الملحوظة التي يقدمونها، تحمل شبكات الحوسبة الموزعة إمكانات سوقية كبيرة وتستفيد بشكل كبير من توسع سوق الذكاء الاصطناعي المتزايد.
يظهر قطاع البنية التحتية الذكية الموزعة طلبًا قويًا وآفاق نمو طويلة الأجل كبيرة، مما يجعله مجالًا جذابًا لرأس المال الاستثماري. حاليًا، تتمحور المشاريع الأساسية ضمن طبقة البنية التحتية لصناعة الذكاء الاصطناعي + الويب3 حولًا بشكل أساسي حول شبكات الحوسبة اللامركزية. تشدد هذه المشاريع على تكاليف منخفضة كميزة رئيسية، وتستخدم حوافز الرموز لتوسيع شبكاتها، وتعطي الأولوية لخدمة زبائن الذكاء الاصطناعي + الويب3 كهدف أساسي لها. يتكون هذا القطاع أساسًا من مستويين رئيسيين:
بتقديم خدمات بأسعار أكثر تنافسية من خدمات الحوسبة السحابية المركزية، مع الحفاظ على مرافق الدعم وتجارب المستخدمين المقارنة، حاز هذا المشروع على اعتراف من المستثمرين البارزين. ومع ذلك، يشكل التعقيد التقني المتزايد تحديا كبيرا. حاليا، يكون المشروع في مرحلة السرد والتطوير، دون وجود منتج مطلق بالكامل حتى الآن.
شبكة رندر هي منصة عالمية للتقديم على أساس تقنية سلسلة الكتل التي تستفيد من وحدات معالجة الرسومات الموزعة لتقديم خدمات تقديم ثلاثي الأبعاد فعالة من حيث التكلفة والكفاءة للمبدعين. عند تأكيد المبدع على نتائج التقديم، تقوم شبكة السلسلة الكتلية بإرسال مكافآت الرموز إلى العقد. تتميز المنصة بشبكة توزيعية لجدولة وتخصيص وحدات معالجة الرسومات، حيث يتم تعيين المهام استنادًا إلى استخدام العقد، السمعة، وعوامل أخرى لتحسين كفاءة الحوسبة، وتقليل الموارد الخاملة، وتقليل النفقات.
عملة RNDR الخاصة بالمنصة تعمل كعملة دفع داخل النظام البيئي. يمكن للمستخدمين استخدام RNDR لتسوية رسوم خدمات العرض، بينما يكسب مقدمو الخدمات مكافآت RNDR عن طريق تقديم قدرة الحوسبة لإكمال مهام العرض. يتم تعديل تسعير خدمات العرض بشكل ديناميكي استجابةً لاستخدام الشبكة الحالي ومقاييس أخرى ذات الصلة.
ثبت أن التقديم يثبت كونه حالة استخدام مناسبة ومثبتة لهندسة الحوسبة الموزعة. طبيعة مهام العرض تسمح بتقسيمها إلى مهام فرعية متعددة تُنفذ بشكل متواز، مما يقلل من التواصل والتفاعل بين المهام. يعمل هذا النهج على التخفيف من عيوب هندسة الحوسبة الموزعة بينما يستغل الشبكة الواسعة لعقد GPU لدفع كفاءة التكلفة.
طلب شبكة العرض كبير، حيث قام المستخدمون بعرض أكثر من 16 مليون إطار وما يقرب من 500000 مشهد على المنصة منذ إنشائها في عام 2017. حجم وظائف العرض والعقد النشطة مستمر في الارتفاع. وعلاوة على ذلك، في الربع الأول من عام 2023، قدمت شبكة العرض مجموعة أدوات استقرار AI مدمجة بشكل أصلي، مما يتيح للمستخدمين دمج عمليات الانتشار المستقرة. هذا التوسع خارج عمليات العرض يشير إلى خطوة استراتيجية في مجال تطبيقات الذكاء الاصطناعي.
يعمل Gensyn كشبكة عالمية لتجميع الحواسيب الضخمة متخصصة في الحوسبة العميقة، مستخدمة بروتوكول Polkadot L1. في عام 2023، نجحت المنصة في تأمين 43 مليون دولار في جولة تمويل السلسلة A، بقيادة a16z. يمتد الإطار المعماري لـ Gensyn بعيدًا عن تجميع قوة الحوسبة الموزعة للبنية التحتية ليشمل نظام التحقق من الطبقة العلوية. يضمن هذا النظام أن الحوسبات الخارج سلسلة الكتل تتوافق مع متطلبات السلسلة من خلال التحقق من البلوكشين، وإقامة شبكة آلية للتعلم بدون ثقة.
بالنسبة لقوة الحوسبة الموزعة، يتيح Gensyn مجموعة متنوعة من الأجهزة، بدءًا من مراكز البيانات ذات الطاقة الزائدة إلى أجهزة الكمبيوتر المحمولة الشخصية التي تحتوي على وحدات GPU محتملة. يقوم بتوحيد هذه الأجهزة في نادٍ افتراضي موحد يمكن للمطورين الوصول إليه لاستخدام الند للند حسب الطلب. تهدف Gensyn إلى إنشاء سوق حيث يتم تحديد الأسعار بواسطة القوى السوقية، معززة التضمن وتمكين تكاليف حوسبة ML من تحقيق مستويات عادلة.
يقف نظام التحقق كمفهوم حيوي لـ Gensyn، مع الهدف من التحقق من دقة مهام التعلم الآلي كما هو محدد. إنه يقدم نهج تحقق مبتكر يضمن دليل التعلم الاحتمالي، وبروتوكول تحديد الموقع الدقيق القائم على الرسوم البيانية، و Truebit. توفر هذه الميزات التقنية الأساسية للعبة الحوافز كفاءة محسنة مقارنة بأساليب التحقق التقليدية في سلسلة الكتل. يشمل المشاركون في الشبكة المقدمون، والمحللون، والتحقق، والمبلغين عن الفساد، الذين يسهمون جماعيا في عملية التحقق.
بناءً على البيانات الاختبارية الشاملة المفصلة في ورقة البيض الخاصة ببروتوكول جينسين، تتضمن المزايا الملحوظة للمنصة:
ومع ذلك، يقدم قوة الحوسبة الموزعة في الوقت نفسه زيادة لا مفر منها في وقت التدريب مقارنة بالتدريب المحلي، ناتجة عن التحديات في التواصل والشبكة. بناءً على البيانات الاختبارية، يتسبب بروتوكول Gensyn في تكاليف زمنية إضافية تبلغ حوالي 46٪ في تدريب النموذج.
يعمل شبكة Akash كمنصة حوسبة سحابية موزعة تدمج عناصر تقنية متنوعة لتمكين المستخدمين من نشر التطبيقات وإدارتها بكفاءة داخل بيئة سحابية لامركزية. في جوهرها، توفر للمستخدمين القدرة على استئجار موارد الحوسبة الموزعة.
في قلب عكاش تكمن شبكة من مزودي خدمات البنية التحتية المنتشرة على مستوى العالم ، والتي تقدم موارد وحدة المعالجة المركزية ووحدة معالجة الرسومات والذاكرة والتخزين. يوفر هؤلاء المزودون موارد لتأجير المستخدمين من خلال مجموعة Kubernetes العليا. يمكن للمستخدمين نشر التطبيقات كحاويات Docker للاستفادة من خدمات البنية التحتية الفعالة من حيث التكلفة. بالإضافة إلى ذلك ، يطبق عكاش نهج "المزاد العكسي" لزيادة انخفاض أسعار الموارد. وفقا للتقديرات على موقع Akash الرسمي ، فإن تكاليف خدمة المنصة أقل بنسبة 80٪ تقريبا من تكاليف الخوادم المركزية.
io.net تقف كشبكة حوسبة لامركزية تربط وحدات معالجة الرسوميات الموزعة عالميًا لتوفير الدعم الحسابي لتدريب نماذج الذكاء الاصطناعي والاستدلال. بعد اختتام جولة تمويل سلسلة A بقيمة 30 مليون دولار مؤخرًا، تتباهى المنصة الآن بقيمة تقديرية تبلغ مليار دولار.
متميزة عن منصات مثل Render و Akash، io.net تظهر كشبكة حوسبة لامركزية قوية وقابلة للتوسيع، مرتبطة بشكل دقيق بعدة طبقات من أدوات المطور. تتضمن ميزاتها الرئيسية:
بالنسبة للتسعير، يقدر موقع الويب الرسمي io.net أن تكون أسعاره حوالي 90% أقل من تلك الخدمات المركزية للحوسبة السحابية.
وبالإضافة إلى ذلك، سيكون عملة IO الأصلية ل io.net تستخدم في المقام الأول كآلية دفع ومكافأت ضمن النظام البيئي. على الجانب الآخر، يمكن للطالبين اعتماد نموذج مشابه لـ Helium عن طريق تحويل عملة IO إلى العملة الثابتة "نقاط IOSD" للمعاملات.
هذه المقالة مأخوذة من [بلوكشين وانشيانغ], العنوان الأصلي هو "طريق التطوير المستقبلي AI+Web3 (2) ): البنية التحتية", حقوق النشر تنتمي إلى الكاتب الأصلي [وانشيانغ بلوكتشين]. إذا كانت هناك اعتراضات على هذه الإعادة طبع، يرجى الاتصال بالفريق تعلم جيت، وسوف يتعاملون معها على الفور.
إخلاء المسؤولية عن المسؤولية: الآراء والآراء الواردة في هذه المقالة تعبر فقط عن رأي الكاتب ولا تشكل أي نصيحة استثمارية.
تتم ترجمة المقال إلى لغات أخرى من قبل فريق Gate Learn. دون ذكرGate.io, النص المترجم قد لا يتم نسخه أو توزيعه أو سرقته.