تتوقع Huaxi Securities أن يصل سوق برمجيات الذكاء الاصطناعي العالمي إلى 126 مليار دولار أمريكي في عام 2025 ، بمعدل نمو مركب يبلغ 41.02٪ من عام 2021 إلى عام 2025.
وراء ازدهار ChatGPT دعم قوة الحوسبة الفلكية.
وفقًا للتقديرات ، من حيث خوادم تدريب الذكاء الاصطناعي ، فإن نموذج تدريب لغة واحد كبير يدفع الطلب على خوادم تدريب الذكاء الاصطناعي إلى حوالي 200 مليون دولار أمريكي ؛ من حيث خوادم استدلال الذكاء الاصطناعي ، مثل ChatGPT ، يمكن أن يؤدي إلى زيادة الطلب على خوادم الاستدلال إلى حوالي 4.5 مليار دولار أمريكي في المرحلة المبكرة.
لبعض الوقت ، ظهرت ChatGPTs واحدة تلو الأخرى ، وبدأ مسار خادم AI الذي يقف خلفها أيضًا في الارتفاع وفقًا لذلك.
تعد قوة الحوسبة هي المحرك الأساسي للنموذج الكبير ، وصيغته الحسابية بسيطة للغاية: كم عدد شرائح GPU التي يمكن أن تولد قدرًا كبيرًا من قوة الحوسبة ، ويمكن أن يؤثر عدد شرائح GPU المتطورة بشكل مباشر على قوة الحوسبة.
** قوة الحوسبة المطلوبة بواسطة ChatGPT ليست ثابتة ، ولكنها تزداد خطوة بخطوة. إن ChatGPT الأكثر ذكاءً ، والثمن وراء ذلك هو الحاجة إلى المزيد والمزيد من قوة الحوسبة. **
وفقًا لتكهنات وسائل الإعلام ، من المتوقع أن تبلغ تكلفة تدريب GPT-3 5 ملايين دولار أمريكي في كل مرة ، ويحتاج نموذج GPT-3 إلى تكلف حوالي 1.4 مليون دولار أمريكي في تكاليف التدريب ، ويحتاج نموذج PaLM من Google إلى حوالي 11.2 مليون دولار أمريكي. دولار في تكاليف التدريب.
وفقًا للمسؤولين التنفيذيين في Microsoft ، فإن الكمبيوتر الفائق AI الذي يوفر دعمًا لقوة الحوسبة لـ ChatGPT هو كمبيوتر عملاق كبير الحجم تم بناؤه بواسطة Microsoft باستثمار 1 مليار دولار أمريكي في عام 2019. وهو مجهز بعشرات الآلاف من Nvidia A100 GPUs وأكثر من 60 إجمالاً ، يتم نشر مئات الآلاف من وحدات معالجة الرسومات Nvidia في مركز البيانات.
من أجل تلبية الطلب المتزايد باستمرار على قوة حوسبة ChatGPT ، أعلنت Microsoft أنها ستطلق سلسلة من الأجهزة الافتراضية Azure القابلة للتطوير AI استنادًا إلى أحدث رقاقة GPU H100 من Nvidia وتقنية الاتصال البيني لشبكة Nvidia’s Quantum-2 InfiniBand لتسريع عملية التطوير بشكل كبير من نماذج الذكاء الاصطناعي.
يبدو أن خلف ChatGPT مليء بـ Nvidia و Nvidia و Nvidia.
في الواقع ، لا تشغل Nvidia ، بصفتها الشخصية الرئيسية للأجهزة ، معظم السوق في السوق الاستهلاكية فحسب ، بل إنها أيضًا الخيار الأول في مجال رقائق خادم AI.
الأشياء النادرة أغلى ثمناً. في الوقت الحالي ، زاد سعر شريحة H100 الرئيسية من Nvidia بما يقرب من 70000 يوان في الأسبوع ، والسعر بشكل عام يصل إلى 300000 يوان ؛ ارتفع اليوان على طول الطريق إلى 90.000 يوان ، بزيادة أكثر من 50٪.
ليس فقط لا يمكن شراؤها بأسعار أعلى ، ولكن حتى الولايات المتحدة منعت Nvidia من بيع الرقائق. في أغسطس من العام الماضي ، أصدرت الحكومة الأمريكية سياسة مراقبة الصادرات ، تحظر على Nvidia بيع رقائق A100 و H100 إلى الصين.
من أجل عدم خسارة السوق الصينية والامتثال لضوابط التصدير الأمريكية ، أطلقت Nvidia لاحقًا إصدارات مخصية الأداء من رقائق A800 و H800. لكن هاتين الشريحتين تم الاستيلاء عليهما من قبل السوق بسبب نقص المعروض ، وارتفع السعر أيضًا وفقًا لذلك.
بقيادة بايدو وعلي وتينسنت ، أعلنت معظم شركات الإنترنت في الصين عن دخولها في النموذج واسع النطاق. وفقًا لإحصاءات السوق ، منذ ChatGPT ، تجاوز عدد الطرز الكبيرة التي سيتم إطلاقها في الصين هذا العام 10.
إذا كنت ترغب في الوصول إلى مستوى ChatGPT ، فأنت بحاجة إلى ما لا يقل عن 3000 شريحة A100 ، أي 270 مليون يوان صيني بسعر 90،000 للقطعة الواحدة لإكمال نشر نموذج كبير ؛ 10 نماذج كبيرة تحتاج 30000 شريحة A100 ، 2.7 مليار يوان صيني .
بالإضافة إلى تكلفة التدريب اللاحق ، تعتبر الرقائق المطلوبة أكثر فلكية. ولكن انطلاقا من وقت التسليم الحالي لـ Nvidia ، ليس من السهل شراء ما يكفي من الرقائق.
في نشوة ، جاء عصر بطاقات التعدين مرة أخرى.
عندما كانت العملة الافتراضية ساخنة في السنوات القليلة الماضية ، كمزود بطاقة رسومات ضروري للتعدين ، حققت Nvidia أرباحًا ضخمة بلغت 4.8 مليار دولار أمريكي في بضع سنوات. الآن بالاعتماد على ChatGPT لتعيش حياة ثانية ، دع التاريخ يعيد نفسه مرة أخرى.
في مواجهة زيادة الطلب في السوق ، أطلقت Nvidia ، التي استفادت من موجة الذكاء الاصطناعي للالتفاف ، خدمة تأجير طاقة الحوسبة.
في 21 مارس ، في مؤتمر 2023 GTC ، أطلق مؤسس NVIDIA والرئيس التنفيذي Jensen Huang NVIDIA DGX Cloud ، والتي يمكن أن تزود المؤسسات بالبنية التحتية والبرمجيات اللازمة لتدريب نماذج الذكاء الاصطناعي المتقدمة. تم تجهيز كل مثيل من DGX Cloud بـ 8 H100 أو A100 80GB GPU. يمكن للشركات تأجير مجموعات DGX Cloud على أساس شهري في شكل عقد إيجار سحابي. يبدأ السعر من 37000 دولار لكل مثيل شهريًا.
** ألا يوجد حقاً بديل لـ Nvidia؟ لماذا تفضل الشركات اختيار التأجير بدلاً من الشركات المصنعة لشرائح GPU الأخرى؟ **
وفقًا لبيانات IDC ، ستشكل خوادم GPU المحلية أكثر من 88.4٪ من سوق الخوادم المحلية في عام 2021 ، وستمثل المنتجات التي تستخدم NVIDIA أكثر من 80٪.
** الشريحة المطلوبة بواسطة نموذج AI الكبير لها متطلبات أعلى بشأن دقة معالجة المعلومات وسرعة قوة الحوسبة. في مجال الحوسبة الفائقة ، تعد قدرة حوسبة النقطة العائمة مزدوجة الدقة FP64 مؤشرًا صارمًا للارتفاع حسابات قوة الحوسبة. إن H100 و A100 من Nvidia هما الرقائق الوحيدة بهذه الإمكانيات حاليًا. **
إن مبيعات رقائق Nvidia ليست الشيء الوحيد العالق في الولايات المتحدة ، فالتكنولوجيا والمعدات والمواد كلها تقيد البحث والتطوير في الشركات الصينية. ومع ذلك ، في ظل القيود الشديدة التي تفرضها الولايات المتحدة ، لا تزال الشركات الصينية تنفد من العديد من الخيول السوداء تحت الضغط.
وفقًا لآخر تقرير تتبع “سوق الحوسبة المعجل بالصين (النصف الثاني من عام 2021)” الصادر عن IDC ، سيصل حجم سوق خوادم الذكاء الاصطناعي في الصين إلى 35.03 مليار يوان في عام 2021 ، بزيادة سنوية قدرها 68.6٪.
في مجال رقائق GPU على مستوى المؤسسات ، ستطلق الشركة الصينية Biren Technology شريحة BR100 في عام 2022 ، وستطلق Tianshu Zhixin شريحة Zhikai 100 ، وستطلق Cambrian شريحة Siyuan 270.
من بينها ، قالت شركة Biren Technology أن جهاز BR100 يتمتع بأعلى قوة حوسبة في العالم ، وقد وصلت ذروة قوته الحاسوبية إلى أكثر من ثلاثة أضعاف المنتجات الرائدة في السوق ، حيث تصل قوة الحوسبة إلى مستوى PFLOPS.
على الرغم من أن البيانات جيدة ، إلا أنها تفتقر إلى القدرة الحاسمة على معالجة FP64 ، ولا تزال غير قادرة على استبدال الشقيقين Nvidia H100 و A100 تمامًا.
علاوة على ذلك ، أصبحت منصة CUDA التي تستخدمها Nvidia بالفعل النظام البيئي لتطوير الذكاء الاصطناعي الأكثر استخدامًا. فهي تدعم فقط GPU المستندة إلى Tesla من Nvidia ، والتي لا يمكن استبدالها بالرقائق المحلية في هذه المرحلة.
على الرغم من أن مصنعي الرقائق الصينيين يلحقون بالركب في مجال رقائق GPU ، إلا أن الفجوة التكنولوجية و عنق الزجاجة في الولايات المتحدة لا يزالان من القضايا الرئيسية ، وسوف يستغرق الأمر بعض الوقت للعمل الجاد.
ليس فقط خوادم الذكاء الاصطناعي ورقائق وحدة معالجة الرسومات ، ولكن أيضًا سوق التخزين آخذ في الارتفاع على طول الطريق بمساعدة النماذج واسعة النطاق.
** تشمل ظروف تشغيل ChatGPT بيانات التدريب وخوارزميات النموذج وقوة الحوسبة العالية. تُعد البنية التحتية الأساسية ذات قوة الحوسبة العالية أساسًا للبيانات الضخمة والتدريب. **
الميزة الأكثر وضوحًا هي أنه بعد التكرارات العديدة لـ ChatGPT ، زاد عدد المعلمات من 117 مليونًا إلى 175 مليارًا ، بزيادة تقارب ألفي مرة ، مما يجلب أيضًا تحديات كبيرة للحوسبة والتخزين.
** مع بدء العصر الجديد للذكاء الاصطناعي ، من المتوقع أن يزداد حجم إنشاء البيانات العالمية وتخزينها ومعالجتها بشكل كبير ، وستستفيد الذاكرة بشكل كبير. التخزين الحاسوبي هو حجر الزاوية المهم في ChatGPT. مع دخول عمالقة التكنولوجيا مثل Alibaba و Baidu في مشاريع ChatGPT ، سيزداد الطلب الإجمالي في سوق تخزين الحوسبة بشكل سريع. **
مع استمرار ازدهار AIGC ، أدخلت بكين وشنغهاي وقوانغتشو وغيرها من المناطق المتقدمة بالاقتصاد الرقمي سياسات لتعزيز بناء مراكز الحوسبة الذكية. على سبيل المثال ، تقترح بكين بناء مجموعة جديدة من مراكز البيانات الحاسوبية ومراكز طاقة حوسبة الذكاء الاصطناعي ، وزرعها في مراكز طاقة حوسبة الذكاء الاصطناعي بحلول عام 2023 ؛ تقترح شنغهاي بناء مجموعة من حوسبة الذكاء الاصطناعي عالية الأداء وعالية الإنتاجية مراكز الطاقة ، والترويج لبناء منصات خدمات الحوسبة العامة للطاقة ، وما إلى ذلك.
وستواجه جميع مناحي الحياة معمودية ChatGPT. في ظل الموجة الجديدة من الذكاء الاصطناعي ، ستدخل الصناعات المرتبطة بالذكاء الاصطناعي حيزًا واسعًا من السوق.
والشركات الصينية ملزمة بكسر قيود الولايات المتحدة وكسر قيود الظلم.