تعتمد التطورات السريعة للذكاء الاصطناعي على البنية التحتية المعقدة. يتكون تكنولوجيا الذكاء الاصطناعي من تراكيب متعددة الطبقات من الأجهزة والبرمجيات ، وهي دعامة الثورة الحالية في مجال الذكاء الاصطناعي. سنحلل بشكل عميق الطبقات الرئيسية للتكنولوجيا ونوضح مساهمة كل طبقة في تطوير الذكاء الاصطناعي وتنفيذه. في النهاية ، سنعيد التفكير في أهمية اكتساب هذه المعارف الأساسية ، وخاصةً عند تقييم الفرص المتاحة في مجال العملات الرقمية وتقاطعها مع الذكاء الاصطناعي مثل مشروع DePIN (البنية التحتية الفيزيائية اللامركزية) وشبكات GPU على سبيل المثال.
1. الطبقة العتادية: السيليكون الأساسي
في الطبقة السفلية تكمن الأجهزة، حيث توفر القدرة الحسابية الفيزيائية للذكاء الصناعي.
CPU (وحدة المعالجة المركزية): هو معالج الحوسبة الأساسي. يتمتعون بقدرة على معالجة المهام التسلسلية وهي مهمة للغاية للحوسبة العامة ، بما في ذلك معالجة البيانات المسبقة ومهام الذكاء الاصطناعي الصغيرة وتنسيق المكونات الأخرى.
GPU (وحدة معالجة الرسومات): تم تصميمها في البداية لعملية تقديم الرسومات، ولكنها أصبحت جزءًا هامًا في الذكاء الاصطناعي بسبب قدرتها على تنفيذ عمليات بسيطة بكميات هائلة. تجعل هذه القدرة على المعالجة المتوازية GPU مناسبًا جدًا لتدريب نماذج التعلم العميق، وبدون تطور الGPU، لن يتمكن نموذج GPT الحديث من العمل.
مسرع الذكاء الاصطناعي: رقاقات مصممة خصيصًا لتحميل العمل الذكاء الاصطناعي ، حيث تتم محسنة لعمليات الذكاء الاصطناعي الشائعة وتوفر أداءً عاليًا وكفاءة عالية للتدريب والاستدلال.
FPGA (منطق الصفيف القابل للبرمجة): يوفر المرونة بطبيعته القابلة لإعادة البرمجة. يمكن تحسينها لمهام الذكاء الاصطناعي محددة، خاصة في سيناريوهات الاستدلال التي تتطلب زمن انتقال منخفض.
2. البرنامج الأساسي: الوسيط
هذا الطبقة في تكنولوجيا الذكاء الاصطناعي مهمة للغاية، لأنها تبني جسرًا بين الإطار العالي المستوى للذكاء الاصطناعي والأجهزة الأساسية. تقنيات مثل CUDA و ROCm و OneAPI و SNPE تقوي الروابط بين الإطارات العالية المستوى وهندسة الأجهزة المحددة، مما يحقق تحسينات في الأداء.
باعتبارها الطبقة البرمجية المملوكة لشركة NVIDIA، فإن CUDA هي أساس صعود الشركة في سوق الذكاء الاصطناعي. وتعود القدرة القيادية لشركة NVIDIA ليس فقط إلى ميزتها في الأجهزة، ولكن أيضًا إلى تكامل البرمجيات والبيئة البيولوجية القوية لها.
CUDAالعمق لديه تأثير كبير للغاية لأنه يدمج تقنيات الذكاء الاصطناعي ويوفر مجموعة كاملة من المكتبات المحسنة التي أصبحت في الواقع معيارًا في هذا المجال. هذا البيئة البرمجية بنت بنية تحتية قوية: ينتشر استخدام CUDA بواسطة الباحثين والمطورين الماهرين في مجال الذكاء الاصطناعي أثناء التدريب إلى المجتمع الأكاديمي والصناعي.
نتج عن هذا الدورة الإيجابية تعزيز موقع نفيديا الرائد في السوق، حيث أصبحت بيئة أدوات CUDA والمكتبات أساسية جدًا لمتخصصي الذكاء الاصطناعي.
هذا التناغم بين البرمجيات والأجهزة ليس فقط يعزز موقع NVIDIA في مقدمة الحوسبة الذكية، ولكنه يمنح الشركة قدرة تحديد الأسعار بشكل ملحوظ، وهذا أمر نادر في سوق الأجهزة التجارية.
يمكن أن يعزى السيطرة المطلقة لـ CUDA والصمت النسبي لمنافسيها إلى مجموعة من العوامل التي خلقت حواجز دخول ملحوظة. تفوق NVIDIA المبكر في مجال الحوسبة بتسريع وحدة المعالجة الرسومية يسمح لـ CUDA ببناء نظام بيئي قوي قبل أن تستطيع منافساتها ترسيخ أقدامها. وبالرغم من أن لدى منافسيها مثل AMD وIntel أجهزة قوية، إلا أن طبقتهم البرمجية تفتقر إلى المكتبات والأدوات اللازمة ولا يمكنها التكامل بسلاسة مع الكتل التكنولوجية الحالية، وهو ما يفسر الفارق الكبير بين NVIDIA/CUDA وبين المنافسين الآخرين.
3. المترجم: المترجم
قدم TVM (محاكي الأساليب) و MLIR (التمثيل الوسيط متعدد المستويات) و PlaidML حلولًا مختلفة للتحدي الذي يواجهه تحسين حمولة عمل AI عبر عدة هياكل عتادية.
نشأت TVM من البحث في جامعة واشنطن، وحصلت بسرعة على المتابعة لقدرتها على تحسين نماذج التعلّم العميق لمختلف الأجهزة (من GPU عالية الأداء إلى الأجهزة المحدودة الموارد على الحافة). يكمن ميزتها في عملية التحسين من النهاية إلى النهاية، وهذا يعمل بشكل خاص بشكل فعال في سيناريوهات الاستدلال. تجعلها تجريدًا تامًا للفروقات بين الموردين والأجهزة الأساسية، مما يجعل أعباء عمل الاستدلال يمكن أن تعمل بسلاسة على أجهزة مختلفة، سواء كانت أجهزة NVIDIA أو AMD أو Intel وغيرها.
ومع ذلك، تصبح الأمور أكثر تعقيدًا خارج التفكير المنطقي. لا يزال هناك هدف نهائي لا يزال قائمًا لتحقيق قابلية استبدال الأجهزة المدربة بالذكاء الاصطناعي للحساب. ومع ذلك، هناك عدة مبادرات تستحق الإشارة في هذا الصدد.
MLIR، مشروع Google، يعتمد أساليب أكثر أساسية. من خلال توفير تمثيل وسيط موحد لعدة مستويات مجردة، يهدف إلى تبسيط البنية الأساسية للمترجم بأكمله، مع التركيز على حالات الاستدلال والتدريب.
PlaidML، الآن بقيادة Intel، يصف نفسه بأنه الحصان الأسود في هذه المنافسة. إنه يركز على قابلية النقل عبر عدة توجيهات هندسية (بما في ذلك التوجيهات خارج مسرعات الذكاء الاصطناعي التقليدية)، متطلعاً إلى مستقبل تشغيل أعباء العمل الذكاء الاصطناعي بسلاسة على منصات الحوسبة المختلفة.
إذا كان أي من هذه المترجمات يمكن أن يتكامل بشكل جيد في الكومة التقنية، دون التأثير على أداء النموذج ودون الحاجة لأي تعديلات إضافية من قبل المطورين، فقد يشكل ذلك تهديدًا كبيرًا لاستحواذ CUDA. ومع ذلك، فإن MLIR و PlaidML ليسا كافيين حاليًا ولم يتم دمجهما بشكل جيد في كومة التقنية للذكاء الاصطناعي، وبالتالي لا يشكلان تهديدًا واضحًا للمكانة الريادية لـ CUDA.
4. الحساب الموزع: المنسق
تمثل Ray و Horovod طريقتين مختلفتين للحوسبة الموزعة في مجال الذكاء الاصطناعي ، حيث يحل كل منهما متطلبات مهمة للتوسع القابل للتطبيق في تطبيقات الذكاء الاصطناعي على نطاق واسع.
Ray، الإطار العام للحوسبة الموزعة الذي تم تطويره من قبل RISELab في UC Berkeley. يتميز بالمرونة، ويسمح بتوزيع مجموعة متنوعة من أنواع الأعباء العمل بما في ذلك تلك التي لا تتعلق بتعلم الآلة. يبسط نموذج الممثل المبني على Ray عملية التوازي لرمز Python إلى حد كبير، مما يجعله مثاليًا لتطبيقات التعلم التعزيزي والذكاء الاصطناعي الأخرى التي تتطلب سير عمل متنوع ومعقد.
Horovod، التي تم تصميمها في الأصل بواسطة Uber، هي تنفيذ موزع مخصص للتعلم العميق. إنها توفر حلاً بسيطًا وفعالًا لتوسيع عملية تدريب التعلم العميق على عدة وحدات معالجة الرسومات والخوادم عقدة. يتميز Horovod بسهولة استخدامه وتحسينه للتدريب المتوازي لشبكات الأعصاب، مما يتيح له التكامل المثالي مع إطارات التعلم العميق الرئيسية مثل TensorFlow و PyTorch، مما يتيح للمطورين توسيع رمز التدريب الحالي بسهولة دون الحاجة إلى تعديل الكثير من الشفرة.
5.结束语:从العملات الرقمية 角度
متكامل مع الكتلة الحالية للذكاء الاصطناعي ضروري لمشروع DePin الذي يهدف إلى بناء نظام حوسبة موزع. يضمن هذا التكامل التوافق مع سير العمل والأدوات الحالية للذكاء الاصطناعي، ويُسقط عتبة الاعتماد.
في مجال العملات الرقمية، يُعد شبكة GPU الحالية أساسًا منصة لتأجير وحدات معالجة الرسومات بطريقة اللامركزية، وهو ما يشكل خطوة أولى نحو البنية التحتية المعقدة للذكاء الاصطناعي الموزع. هذه المنصات تشبه أكثر سوقًا على غرار Airbnb بدلاً من أن تكون سحابة موزعة للعمل. على الرغم من أنها مفيدة لبعض التطبيقات، إلا أن هذه المنصات لا تكفي لدعم التدريب الموزع الحقيقي، وهذا هو الاحتياج الأساسي لتعزيز تطوير الذكاء الاصطناعي بمقياس كبير.
مثل معايير الحوسبة الموزعة الحالية مثل Ray و Horovod ، لم تكن مصممة لشبكة موزعة عالمية. بالنسبة لشبكات اللا مركزية الحقيقية التي تعمل بشكل جيد ، نحتاج إلى تطوير إطار آخر على هذا المستوى. حتى بعض المشككين يعتقدون أن نماذج التحويل بسبب الاتصال الكثيف وتحسينات الوظيفة العالمية في عملية التعلم ليست متوافقة مع أساليب التدريب الموزعة. من ناحية أخرى ، يحاول المتفائلون تقديم أطر حوسبة موزعة جديدة يمكن أن تتوافق بشكل جيد مع الأجهزة الموزعة على مستوى عالمي. Yotta هي واحدة من الشركات الناشئة التي تحاول حل هذه المشكلة.
أصبح NeuroMesh أكثر تقدمًا. لقد أعاد تصميم عملية التعلم الآلي بطريقة مبتكرة بشكل خاص. من خلال استخدام شبكة الترميز التنبؤية (PCN) للبحث عن تقليل الأخطاء المحلية بدلاً من البحث المباشر عن الحل الأمثل لدالة الخسارة العامة، قام NeuroMesh بحل أحد أهم عقبات تدريب الذكاء الاصطناعي الموزع.
لقد سمحت هذه الطريقة للتوازي بدرجة غير مسبوقة وجعلت تدريب النماذج على أجهزة الـ GPU للمستخدمين العاديين ممكنًا (مثل RTX 4090) ، مما يجعل تدريب الذكاء الاصطناعي ديمقراطيًا. على وجه التحديد ، فإن قوة الحوسبة لـ GPU 4090 مماثلة لـ H100 ، ولكن بسبب نقص النطاق الترددي ، فإنها لم تستفد منها بشكل كامل في عملية تدريب النماذج. نظرًا لأن PCN يتجاهل أهمية النطاق الترددي ، يصبح استخدام هذه الـ GPU ذات المستوى المنخفض ممكنًا ، مما قد يؤدي إلى توفير كبير في التكاليف وزيادة الكفاءة.
جين سين، شركة ناشئة أخرى طموحة في مجال التشفير ، تهدف إلى بناء مترجم. يسمح مترجم GenSyn باستخدام أي نوع من الأجهزة الحاسوبية بسلاسة لأعباء عمل AI. على سبيل المثال ، على النحو الذي يلعب به TVM دور الاستنتاج ، يحاول GenSyn بناء أداة مماثلة لتدريب النماذج.
إذا نجحت ، فإنه يمكن أن يوسع بشكل كبير قدرة شبكة الحوسبة الذكية المركزية على معالجة المهام الذكاء الاصطناعي المعقدة والمتنوعة بكفاءة عالية من خلال استخدام متعدد أجهزة مختلفة. هذا الرؤية الطموحة ، على الرغم من تحدياتها القوية بسبب تعقيد تحسين هندسة الأجهزة المتنوعة ومخاطر التكنولوجيا العالية ، قد يضعف هذا التكنولوجيا حواجز CUDA و NVIDIA مثل الأداء النظام غير المتجانس.
بشأن الاستدلال: يجمع نهج Hyperbolic بين الأدلة القابلة للتحقق وشبكة اللامركزية للموارد الحسابية الغير متجانسة، وهو يعكس استراتيجية نسبية عملية. من خلال استخدام معايير المترجم مثل TVM، يمكن لـ Hyperbolic الاستفادة من تكوينات الأجهزة المتنوعة وفي الوقت نفسه الحفاظ على الأداء والموثوقية. يمكنه تجميع رقائق من متعدد الموردين (من NVIDIA إلى AMD و Intel وغيرها)، بما في ذلك الأجهزة المستهلكة والأجهزة عالية الأداء.
هذا التشفير يشير إلى مستقبل حيث قد يصبح حساب الذكاء الصناعي أكثر توزيعًا وكفاءة ويمكن الوصول إليه. نجاح هذه المشاريع يعتمد ليس فقط على ميزتها التقنية، ولكن أيضًا على قدرتها على التكامل السلس مع سير العمل الحالية للذكاء الصناعي، بالإضافة إلى قدرتها على حل القضايا الفعلية لممارسي الذكاء الصناعي والشركات.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
IOSG:من السيليكون إلى الذكاء، تكنولوجيا تدريب واستدلال الذكاء الاصطناعي
تعتمد التطورات السريعة للذكاء الاصطناعي على البنية التحتية المعقدة. يتكون تكنولوجيا الذكاء الاصطناعي من تراكيب متعددة الطبقات من الأجهزة والبرمجيات ، وهي دعامة الثورة الحالية في مجال الذكاء الاصطناعي. سنحلل بشكل عميق الطبقات الرئيسية للتكنولوجيا ونوضح مساهمة كل طبقة في تطوير الذكاء الاصطناعي وتنفيذه. في النهاية ، سنعيد التفكير في أهمية اكتساب هذه المعارف الأساسية ، وخاصةً عند تقييم الفرص المتاحة في مجال العملات الرقمية وتقاطعها مع الذكاء الاصطناعي مثل مشروع DePIN (البنية التحتية الفيزيائية اللامركزية) وشبكات GPU على سبيل المثال.
1. الطبقة العتادية: السيليكون الأساسي
في الطبقة السفلية تكمن الأجهزة، حيث توفر القدرة الحسابية الفيزيائية للذكاء الصناعي.
CPU (وحدة المعالجة المركزية): هو معالج الحوسبة الأساسي. يتمتعون بقدرة على معالجة المهام التسلسلية وهي مهمة للغاية للحوسبة العامة ، بما في ذلك معالجة البيانات المسبقة ومهام الذكاء الاصطناعي الصغيرة وتنسيق المكونات الأخرى.
GPU (وحدة معالجة الرسومات): تم تصميمها في البداية لعملية تقديم الرسومات، ولكنها أصبحت جزءًا هامًا في الذكاء الاصطناعي بسبب قدرتها على تنفيذ عمليات بسيطة بكميات هائلة. تجعل هذه القدرة على المعالجة المتوازية GPU مناسبًا جدًا لتدريب نماذج التعلم العميق، وبدون تطور الGPU، لن يتمكن نموذج GPT الحديث من العمل.
مسرع الذكاء الاصطناعي: رقاقات مصممة خصيصًا لتحميل العمل الذكاء الاصطناعي ، حيث تتم محسنة لعمليات الذكاء الاصطناعي الشائعة وتوفر أداءً عاليًا وكفاءة عالية للتدريب والاستدلال.
FPGA (منطق الصفيف القابل للبرمجة): يوفر المرونة بطبيعته القابلة لإعادة البرمجة. يمكن تحسينها لمهام الذكاء الاصطناعي محددة، خاصة في سيناريوهات الاستدلال التي تتطلب زمن انتقال منخفض.
2. البرنامج الأساسي: الوسيط
هذا الطبقة في تكنولوجيا الذكاء الاصطناعي مهمة للغاية، لأنها تبني جسرًا بين الإطار العالي المستوى للذكاء الاصطناعي والأجهزة الأساسية. تقنيات مثل CUDA و ROCm و OneAPI و SNPE تقوي الروابط بين الإطارات العالية المستوى وهندسة الأجهزة المحددة، مما يحقق تحسينات في الأداء.
باعتبارها الطبقة البرمجية المملوكة لشركة NVIDIA، فإن CUDA هي أساس صعود الشركة في سوق الذكاء الاصطناعي. وتعود القدرة القيادية لشركة NVIDIA ليس فقط إلى ميزتها في الأجهزة، ولكن أيضًا إلى تكامل البرمجيات والبيئة البيولوجية القوية لها.
CUDAالعمق لديه تأثير كبير للغاية لأنه يدمج تقنيات الذكاء الاصطناعي ويوفر مجموعة كاملة من المكتبات المحسنة التي أصبحت في الواقع معيارًا في هذا المجال. هذا البيئة البرمجية بنت بنية تحتية قوية: ينتشر استخدام CUDA بواسطة الباحثين والمطورين الماهرين في مجال الذكاء الاصطناعي أثناء التدريب إلى المجتمع الأكاديمي والصناعي.
نتج عن هذا الدورة الإيجابية تعزيز موقع نفيديا الرائد في السوق، حيث أصبحت بيئة أدوات CUDA والمكتبات أساسية جدًا لمتخصصي الذكاء الاصطناعي.
هذا التناغم بين البرمجيات والأجهزة ليس فقط يعزز موقع NVIDIA في مقدمة الحوسبة الذكية، ولكنه يمنح الشركة قدرة تحديد الأسعار بشكل ملحوظ، وهذا أمر نادر في سوق الأجهزة التجارية.
يمكن أن يعزى السيطرة المطلقة لـ CUDA والصمت النسبي لمنافسيها إلى مجموعة من العوامل التي خلقت حواجز دخول ملحوظة. تفوق NVIDIA المبكر في مجال الحوسبة بتسريع وحدة المعالجة الرسومية يسمح لـ CUDA ببناء نظام بيئي قوي قبل أن تستطيع منافساتها ترسيخ أقدامها. وبالرغم من أن لدى منافسيها مثل AMD وIntel أجهزة قوية، إلا أن طبقتهم البرمجية تفتقر إلى المكتبات والأدوات اللازمة ولا يمكنها التكامل بسلاسة مع الكتل التكنولوجية الحالية، وهو ما يفسر الفارق الكبير بين NVIDIA/CUDA وبين المنافسين الآخرين.
3. المترجم: المترجم
قدم TVM (محاكي الأساليب) و MLIR (التمثيل الوسيط متعدد المستويات) و PlaidML حلولًا مختلفة للتحدي الذي يواجهه تحسين حمولة عمل AI عبر عدة هياكل عتادية.
نشأت TVM من البحث في جامعة واشنطن، وحصلت بسرعة على المتابعة لقدرتها على تحسين نماذج التعلّم العميق لمختلف الأجهزة (من GPU عالية الأداء إلى الأجهزة المحدودة الموارد على الحافة). يكمن ميزتها في عملية التحسين من النهاية إلى النهاية، وهذا يعمل بشكل خاص بشكل فعال في سيناريوهات الاستدلال. تجعلها تجريدًا تامًا للفروقات بين الموردين والأجهزة الأساسية، مما يجعل أعباء عمل الاستدلال يمكن أن تعمل بسلاسة على أجهزة مختلفة، سواء كانت أجهزة NVIDIA أو AMD أو Intel وغيرها.
ومع ذلك، تصبح الأمور أكثر تعقيدًا خارج التفكير المنطقي. لا يزال هناك هدف نهائي لا يزال قائمًا لتحقيق قابلية استبدال الأجهزة المدربة بالذكاء الاصطناعي للحساب. ومع ذلك، هناك عدة مبادرات تستحق الإشارة في هذا الصدد.
MLIR، مشروع Google، يعتمد أساليب أكثر أساسية. من خلال توفير تمثيل وسيط موحد لعدة مستويات مجردة، يهدف إلى تبسيط البنية الأساسية للمترجم بأكمله، مع التركيز على حالات الاستدلال والتدريب.
PlaidML، الآن بقيادة Intel، يصف نفسه بأنه الحصان الأسود في هذه المنافسة. إنه يركز على قابلية النقل عبر عدة توجيهات هندسية (بما في ذلك التوجيهات خارج مسرعات الذكاء الاصطناعي التقليدية)، متطلعاً إلى مستقبل تشغيل أعباء العمل الذكاء الاصطناعي بسلاسة على منصات الحوسبة المختلفة.
إذا كان أي من هذه المترجمات يمكن أن يتكامل بشكل جيد في الكومة التقنية، دون التأثير على أداء النموذج ودون الحاجة لأي تعديلات إضافية من قبل المطورين، فقد يشكل ذلك تهديدًا كبيرًا لاستحواذ CUDA. ومع ذلك، فإن MLIR و PlaidML ليسا كافيين حاليًا ولم يتم دمجهما بشكل جيد في كومة التقنية للذكاء الاصطناعي، وبالتالي لا يشكلان تهديدًا واضحًا للمكانة الريادية لـ CUDA.
4. الحساب الموزع: المنسق
تمثل Ray و Horovod طريقتين مختلفتين للحوسبة الموزعة في مجال الذكاء الاصطناعي ، حيث يحل كل منهما متطلبات مهمة للتوسع القابل للتطبيق في تطبيقات الذكاء الاصطناعي على نطاق واسع.
Ray، الإطار العام للحوسبة الموزعة الذي تم تطويره من قبل RISELab في UC Berkeley. يتميز بالمرونة، ويسمح بتوزيع مجموعة متنوعة من أنواع الأعباء العمل بما في ذلك تلك التي لا تتعلق بتعلم الآلة. يبسط نموذج الممثل المبني على Ray عملية التوازي لرمز Python إلى حد كبير، مما يجعله مثاليًا لتطبيقات التعلم التعزيزي والذكاء الاصطناعي الأخرى التي تتطلب سير عمل متنوع ومعقد.
Horovod، التي تم تصميمها في الأصل بواسطة Uber، هي تنفيذ موزع مخصص للتعلم العميق. إنها توفر حلاً بسيطًا وفعالًا لتوسيع عملية تدريب التعلم العميق على عدة وحدات معالجة الرسومات والخوادم عقدة. يتميز Horovod بسهولة استخدامه وتحسينه للتدريب المتوازي لشبكات الأعصاب، مما يتيح له التكامل المثالي مع إطارات التعلم العميق الرئيسية مثل TensorFlow و PyTorch، مما يتيح للمطورين توسيع رمز التدريب الحالي بسهولة دون الحاجة إلى تعديل الكثير من الشفرة.
5.结束语:从العملات الرقمية 角度
متكامل مع الكتلة الحالية للذكاء الاصطناعي ضروري لمشروع DePin الذي يهدف إلى بناء نظام حوسبة موزع. يضمن هذا التكامل التوافق مع سير العمل والأدوات الحالية للذكاء الاصطناعي، ويُسقط عتبة الاعتماد.
في مجال العملات الرقمية، يُعد شبكة GPU الحالية أساسًا منصة لتأجير وحدات معالجة الرسومات بطريقة اللامركزية، وهو ما يشكل خطوة أولى نحو البنية التحتية المعقدة للذكاء الاصطناعي الموزع. هذه المنصات تشبه أكثر سوقًا على غرار Airbnb بدلاً من أن تكون سحابة موزعة للعمل. على الرغم من أنها مفيدة لبعض التطبيقات، إلا أن هذه المنصات لا تكفي لدعم التدريب الموزع الحقيقي، وهذا هو الاحتياج الأساسي لتعزيز تطوير الذكاء الاصطناعي بمقياس كبير.
مثل معايير الحوسبة الموزعة الحالية مثل Ray و Horovod ، لم تكن مصممة لشبكة موزعة عالمية. بالنسبة لشبكات اللا مركزية الحقيقية التي تعمل بشكل جيد ، نحتاج إلى تطوير إطار آخر على هذا المستوى. حتى بعض المشككين يعتقدون أن نماذج التحويل بسبب الاتصال الكثيف وتحسينات الوظيفة العالمية في عملية التعلم ليست متوافقة مع أساليب التدريب الموزعة. من ناحية أخرى ، يحاول المتفائلون تقديم أطر حوسبة موزعة جديدة يمكن أن تتوافق بشكل جيد مع الأجهزة الموزعة على مستوى عالمي. Yotta هي واحدة من الشركات الناشئة التي تحاول حل هذه المشكلة.
أصبح NeuroMesh أكثر تقدمًا. لقد أعاد تصميم عملية التعلم الآلي بطريقة مبتكرة بشكل خاص. من خلال استخدام شبكة الترميز التنبؤية (PCN) للبحث عن تقليل الأخطاء المحلية بدلاً من البحث المباشر عن الحل الأمثل لدالة الخسارة العامة، قام NeuroMesh بحل أحد أهم عقبات تدريب الذكاء الاصطناعي الموزع.
لقد سمحت هذه الطريقة للتوازي بدرجة غير مسبوقة وجعلت تدريب النماذج على أجهزة الـ GPU للمستخدمين العاديين ممكنًا (مثل RTX 4090) ، مما يجعل تدريب الذكاء الاصطناعي ديمقراطيًا. على وجه التحديد ، فإن قوة الحوسبة لـ GPU 4090 مماثلة لـ H100 ، ولكن بسبب نقص النطاق الترددي ، فإنها لم تستفد منها بشكل كامل في عملية تدريب النماذج. نظرًا لأن PCN يتجاهل أهمية النطاق الترددي ، يصبح استخدام هذه الـ GPU ذات المستوى المنخفض ممكنًا ، مما قد يؤدي إلى توفير كبير في التكاليف وزيادة الكفاءة.
جين سين، شركة ناشئة أخرى طموحة في مجال التشفير ، تهدف إلى بناء مترجم. يسمح مترجم GenSyn باستخدام أي نوع من الأجهزة الحاسوبية بسلاسة لأعباء عمل AI. على سبيل المثال ، على النحو الذي يلعب به TVM دور الاستنتاج ، يحاول GenSyn بناء أداة مماثلة لتدريب النماذج.
إذا نجحت ، فإنه يمكن أن يوسع بشكل كبير قدرة شبكة الحوسبة الذكية المركزية على معالجة المهام الذكاء الاصطناعي المعقدة والمتنوعة بكفاءة عالية من خلال استخدام متعدد أجهزة مختلفة. هذا الرؤية الطموحة ، على الرغم من تحدياتها القوية بسبب تعقيد تحسين هندسة الأجهزة المتنوعة ومخاطر التكنولوجيا العالية ، قد يضعف هذا التكنولوجيا حواجز CUDA و NVIDIA مثل الأداء النظام غير المتجانس.
بشأن الاستدلال: يجمع نهج Hyperbolic بين الأدلة القابلة للتحقق وشبكة اللامركزية للموارد الحسابية الغير متجانسة، وهو يعكس استراتيجية نسبية عملية. من خلال استخدام معايير المترجم مثل TVM، يمكن لـ Hyperbolic الاستفادة من تكوينات الأجهزة المتنوعة وفي الوقت نفسه الحفاظ على الأداء والموثوقية. يمكنه تجميع رقائق من متعدد الموردين (من NVIDIA إلى AMD و Intel وغيرها)، بما في ذلك الأجهزة المستهلكة والأجهزة عالية الأداء.
هذا التشفير يشير إلى مستقبل حيث قد يصبح حساب الذكاء الصناعي أكثر توزيعًا وكفاءة ويمكن الوصول إليه. نجاح هذه المشاريع يعتمد ليس فقط على ميزتها التقنية، ولكن أيضًا على قدرتها على التكامل السلس مع سير العمل الحالية للذكاء الصناعي، بالإضافة إلى قدرتها على حل القضايا الفعلية لممارسي الذكاء الصناعي والشركات.