العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
Ark Invest: الحالة الراهنة والمستقبل للبنية التحتية للذكاء الاصطناعي
المصدر: فرانك داوننغ، آرك إنفست؛ الترجمة: جين زي إي كونغ Claw
تزايدٌ انفجاريّ في الإنفاق على البنية التحتية للذكاء الاصطناعي
خلال السنوات الثلاث التي تلت إطلاق ChatGPT، شهد الطلب على الحوسبة المُعجّلة نموًا انفجاريًا. قفزت الإيرادات السنوية لشركة NVIDIA بنحو 8 أضعاف، من 27 مليار دولار في 2022 إلى 216 مليار دولار في 2025، وتتوقع الإجماع في السوق أن تنمو مرة أخرى بنسبة 62% في 2026، لتصل إلى 350 مليار دولار. لقد تسارع معدل الاستثمار في أنظمة مراكز البيانات عالميًا (بما في ذلك أجهزة الحوسبة والشبكات والتخزين) من متوسط نمو سنوي قدره 5% خلال عقد حتى 2022 إلى 30% خلال السنوات الثلاث الماضية، ومن المتوقع أن ينمو مرة أخرى بأكثر من 30% في 2026، ليصل إلى 653 مليار دولار.
تشير أبحاث آرك إلى أن الحوسبة المُعجّلة (بالنسبة إلى وحدات المعالجة المركزية العامة) والتي يقودها وحدات معالجة الرسوميات GPU والدوائر المتكاملة المخصصة للذكاء الاصطناعي ASIC، أصبحت اليوم تهيمن على استثمارات الخوادم، إذ تمثل 86% من مبيعات خوادم الحوسبة.
انخفاضٌ حاد في التكاليف يدفع إلى التبنّي المُعجّل
الدافع وراء استمرار ارتفاع إنفاق البنية التحتية للحوسبة المُعجّلة اللازمة لتشغيل نماذج الذكاء الاصطناعي يأتي من التوسع المستمر في حالات الاستخدام للذكاء الاصطناعي التوليدي على مستوى المستهلكين وعلى مستوى المؤسسات، ومن الحاجة إلى تدريب نماذج أساس أكثر ذكاءً في مسعى الوصول إلى “الذكاء الخارق”.
يؤدي الانخفاض السريع في التكاليف إلى تسريع نمو الطلب أكثر. وفقًا لأبحاثنا، تنخفض تكلفة تدريب نماذج الذكاء الاصطناعي بنسبة 75% سنويًا. ينخفض أيضًا تكلفة الاستدلال بشكل أسرع—في اختبارات المعيار التي تتعقبها Artificial Analysis، تبلغ درجة نماذج يتجاوز فيها 50% من النماذج عتبة معينة، وبلغ الانخفاض السنوي المُؤمّن للتكلفة (على أساس سنوي) في الوسيط ما يصل إلى 95%.
القوتان معًا تقودان الانخفاض الكبير في التكلفة: أولًا، يطرح قادة الصناعة مثل NVIDIA منتجات جديدة سنويًا، ما يؤدي إلى تحسن مستمر في أداء العتاد عبر أجيال؛ وثانيًا، تتحسن الخوارزميات على مستوى البرمجيات، ما يرفع باستمرار كفاءة التدريب والاستدلال على نفس العتاد.
إشارات طلب قوية من المستهلكين والشركات
وتيرة تبنّي المستهلكين للذكاء الاصطناعي أسرع بكثير من وتيرة تبنّيهم للإنترنت في حينه. توسّع معدل انتشار الذكاء الاصطناعي خلال ثلاث سنوات إلى نحو 20%، وهو أكثر من ضعف سرعة تحوّل المستهلكين إلى الإنترنت.
كذلك تنمو احتياجات الشركات بسرعة مذهلة. فعلى سبيل المثال، وفقًا لبيانات OpenRouter، منذ ديسمبر 2024 تضاعف الطلب على الـ token 28 مرة.
خلال السنتين الماضيتين، حقق مختبر الذكاء الاصطناعي Anthropic، الأكثر تفضيلًا لدى العملاء من المؤسسات، نموًا ملحوظًا في الإيرادات وصل إلى نحو 100 مرة—من 100 مليون دولار كإيراد تشغيلي سنوي مُقدر بنهاية 2023، إلى ما بين 8 مليارات و10 مليارات دولار بنهاية 2025. ولا يزال زخم Anthropic في 2026 مستمرًا؛ إذ أعلنت في شهر فبراير من هذا العام أن لديها إيرادات سنوية مُقدرة بقيمة 14 مليار دولار، كما أكملت جولة تمويل بقيمة 30 مليار دولار، بتقييم يصل إلى 380 مليار دولار.
وفي ساحة المنافسة على جبهتي المستهلكين والمؤسسات معًا، تحقق OpenAI نموًا قويًا أيضًا لدى المستخدمين من المؤسسات؛ واعتبارًا من نوفمبر 2025 تمتلك مليون عميل مؤسسي. ووفقًا لما ذكره كبير مسؤولي التمويل Sarah Friar، فإن معدل نمو إيرادات OpenAI لدى الشركات يتفوق على نشاطها لدى المستهلكين، وتتوقع أن يمثل في 2026 نحو 50% من إجمالي إيرادات الشركة. وفي مدونة نشرتها Friar في يناير 2026، أوضحت أيضًا أسبابًا للاستثمار الإضافي في البنية التحتية: خلال السنوات الثلاث الماضية، ارتفعت إيرادات OpenAI بنسبة تتناسب طرديًا مع قدرتها الحاسوبية.
صافي سوق القطاع الخاص يوفر التمويل لبناء الذكاء الاصطناعي
لتلبية إشارات الطلب القوية، أصبح الاستثمار الضخم في البنية التحتية ضرورة. وفقًا لبيانات Crunchbase، تجاوز تمويل مختبرات الذكاء الاصطناعي الخاصة في 2025 مبلغ 200 مليار دولار، حيث توجه نحو 80 مليار دولار إلى مطوري نماذج أساس مثل OpenAI وAnthropic وxAI. وفي الأسواق العامة، تقوم شركات الحوسبة السحابية فائقة الحجم باستخدام الاحتياطيات النقدية وتبحث عن طرق تمويل أخرى لدعم خطة إنفاقها على رأس المال الخاص بالذكاء الاصطناعي—قد يصل حجم هذا الإنفاق في 2026 إلى 700 مليار دولار.
وفقًا لتقارير، تعد صفقة بقيمة 30 مليار دولار بين Meta وBlue Owl أكبر صفقة للقطاع الخاص في التاريخ من حيث الحجم. جرى هيكلة الصفقة على شكل شركة شراكة، وتمويلها أساسًا عبر الديون؛ كما أن هيكل الشركة ذات الغرض الخاص (SPV) سيجعل ديون المشروع لا تظهر في الميزانية العمومية لـ Meta، وهو ما أثار جدلًا كبيرًا.
AMD وموردون آخرون يصبحون منافسين أقوياء لـ NVIDIA
بعيدًا عن مراكز البيانات المادية، ظلّت رقائق الحوسبة محور إنفاق رأس المال الخاص بالذكاء الاصطناعي. كانت NVIDIA دائمًا في مقدمة عصر الحوسبة المُعجّلة، لكن الآن يسعى أكبر مشتري لشرائح الذكاء الاصطناعي إلى زيادة القدرة الحاسوبية للذكاء الاصطناعي التي يحصل عليها مقابل كل دولار يُستثمر. منذ الاستحواذ على ATI Technologies في 2006، واصلت شركة Advanced Micro Devices (AMD) العمل جنبًا إلى جنب مع NVIDIA في بيع وحدات GPU في السوق الاستهلاكية، لكنها أصبحت أيضًا منافسًا صاعدًا في سوق المؤسسات. ومنذ إطلاق سلسلة معالجات EPYC في 2017، ارتفعت حصة AMD في سوق معالجات الخوادم من شبه الصفر في 2017 إلى 40% في 2025.
وبالنسبة لاستدلال نماذج صغيرة، أصبحت وحدات GPU التابعة لـ AMD متقاربة من حيث الأداء مقارنةً بـ NVIDIA من ناحية التكلفة الإجمالية لامتلاك المنتج (TCO). يأخذ معيار TCO في الاعتبار تكلفة شراء الشريحة مقدمًا (رأس المال/CapEx) وتكلفة تشغيل الشريحة خلال عمرها التشغيلي (النفقات التشغيلية/OpEx). تُستخدم مؤشرات SemiAnalysis لقياس الأداء وفقًا لمقياس InferenceMax، مع اعتبار عدد الـ token التي تتم معالجتها في الثانية لكل GPU عند تحسين الإنتاجية كمعيار، بينما تستخدم التكلفة معيارًا يعتمد على تقديرات SemiAnalysis لنفقات رأس المال والنفقات التشغيلية لكل ساعة.
على الرغم من أن AMD قد “لحقت” من حيث أداء النماذج الصغيرة، لا تزال NVIDIA متفوقة بفارق واضح في أداء النماذج الكبيرة، كما هو مبين في الرسم أدناه.
تقوم حلول NVIDIA على مستوى الرف Grace Blackwell بربط 72 GPU من نوع Grace Blackwell (GB200) لتعمل كما لو كانت GPU عملاقة بمثابة ذاكرة مشتركة. يعزز هذا الترابط الوثيق بين الرقائق قدرات استدلال النماذج الكبيرة—فالنماذج الكبيرة تحتاج إلى توزيع أوزان النموذج عبر عدة GPU، وهو ما يتطلب عرض نطاق اتصال أعلى مقارنةً بالنماذج الصغيرة. ولللحاق قبل صدور NVIDIA Vera Rubin، تخطط حلول AMD على مستوى الرف لبدء الطرح في النصف الثاني من 2026. وحتى الآن، حققت AMD طلبات لدى عملاء مثل Microsoft وMeta وOpenAI وxAI وOracle.
تقود شركات السحابة فائقة الحجم ثورة الرقائق المصممة خصيصًا
بالإضافة إلى مزودي وحدات GPU التجارية، تأمل شركات السحابة فائقة الحجم ومختبرات الذكاء الاصطناعي أيضًا في تقليص نفوذ NVIDIA عبر تطوير شرائحها داخليًا، والحد من تكاليف الحوسبة الخاصة بالذكاء الاصطناعي. وعلى مدار أكثر من عقد من الزمن، كانت Google تعمل على تصميم دوائر متكاملة مخصصة للذكاء الاصطناعي—وهي وحدات معالجة المصفوفات (TPU)—لتشغيل نماذج التوصية في أعمال البحث لديها، مع تحسين الأداء في الجيل الأحدث من TPU v7 للذكاء الاصطناعي التوليدي. وتقدّر SemiAnalysis أن Google، من خلال TPU المطورة داخليًا لمعالجة الأحمال الداخلية، يمكنها خفض تكلفة كل عملية حسابية مقارنةً بـ NVIDIA بنسبة 62%. وتستخدم كل من Anthropic وMeta توسعات TPU من Google لتوسيع قدرات الحوسبة لديها، وهو ما قد يؤكد أن تقدير 62% ليس بعيدًا كثيرًا عن الواقع.
يبدو أن رقاقة Trainium من Amazon حلًا متقدمًا. بعد استحواذ Amazon على Annapurna Labs في 2015، كانت سبّاقة في تطوير شرائح مخصصة لعملياتها السحابية، وبنت عليها معالجات Graviton المبنية على بنية ARM ووحدات معالجة البيانات (DPU) من أجل دعم القدرة الحاسوبية الأساسية لخدمات Amazon Web Services (AWS). وأعلنت Amazon مؤخرًا أن Graviton لعام 2025 قدم—للسنة الثالثة على التوالي—أكثر من نصف قدرة CPU الجديدة المضافة في AWS. وبالإضافة إلى استخدام TPU، تستخدم Anthropic أيضًا AWS وTrainium كمنصات تدريب مفضلة.
دخلت Microsoft إلى مجال الشرائح المصممة خصيصًا متأخرة نسبيًا في 2023، مع إطلاق مسرّع AI Maia 100، لكنها لم تكن تركز آنذاك على الذكاء الاصطناعي التوليدي، بينما يجري الآن طرح جيلها الثاني من المنتجات، مع تركيز أكبر على سيناريوهات استدلال الذكاء الاصطناعي.
تقوم Broadcom بدور محوري في سوق خدمات الشرائح المصممة خصيصًا
تركز Google وAmazon على تصميم الشرائح في الواجهة الأمامية (الهندسة المعمارية والوظائف)، بينما يتولى شركاء تصميم الطرف الخلفي تحويل منطقها إلى شرائح سيليكون، وإدارة التغليف المتقدم، والتنسيق مع مصانع سباكة الرقائق مثل TSMC لإنتاجها. وفي ظل التحديات التي واجهت أعمال تصنيع الرقائق الخاصة بـ Intel، أصبحت TSMC الشريك المفضل لمعظم مشاريع الرقائق الرئيسية للذكاء الاصطناعي؛ في حين أصبحت Broadcom شريك التصميم المفضل لطرف الخلفي لكل من شرائح Google TPU وMeta MTIA، وكذلك للشرائح المصممة خصيصًا التي تستعد OpenAI لإطلاقها في 2026. تحرص Apple دائمًا على إنجاز التصميم الكامل لسلاسل رقائق الهواتف وPC لديها داخليًا، لكن ورد أنها قد تكون تتعاون أيضًا مع Broadcom لتطوير شرائح AI. وتتوقع Citi أن إيرادات Broadcom من AI قد تنمو خمس مرات خلال العامين القادمين، من 20 مليار دولار في 2025 إلى 100 مليار دولار في 2027.
تعد مسار تطوير Trainium من Amazon غير معتاد بين أقرانه—فبحسب التقارير، تعاون Trainium 2 مع Marvell، ثم بسبب سوء تنفيذ Marvell انتقل Trainium 3 وTrainium 4 إلى التعاون مع Alchip. إن قدرة Amazon على تغيير شركاء الطرف الخلفي تشير إلى أن التكامل العمودي ينطوي بالفعل على قدر من المخاطر بالنسبة لشركات مثل Broadcom. ومن الجدير بالذكر أن Apple وTesla تتعاونان مباشرة مع مصانع سباكة الرقائق. وقد تفعل Google الشيء نفسه على TPU v8—إذ يمتلك هذا المنتج وحدتين (SKU): واحدة يتم تصميمها بالاشتراك مع Broadcom، والأخرى يقوم Google بتصميمها وتحكمه داخليًا بدعم من MediaTek.
تصاعد أنشطة شركات ناشئة في مجال الرقائق
تشير أبحاثنا إلى أن مجموعة من الشركات الناشئة التي تحاول أنماطًا جديدة للهندسة المعمارية تشكل قوة ذيل (tail) قد تتحدى مكانة موردي الرقائق القائمين في السوق بشكل أكبر. تتميز Cerebras بمحرك من نوع مستوى الرقاقة (محرك مصنوع من شريحة سيليكون واحدة بحجم شريحة عملاقة مثل صندوق بيتزا) وتوفر أسرع معالجة لـ token في الثانية في السوق، ويُقال إنها تخطط لإطلاقه في هذا العام. وأعلنت الشركة مؤخرًا عن تعاونها مع OpenAI لإطلاق نموذج برمجي عالي السرعة Codex Spark؛ وكان الطرفان قد توصلا إلى اتفاق تعاون في يناير من هذا العام. كما تتميز Groq أيضًا بأداء استثنائي في معالجة عدد الـ token في الثانية، وقد وقّعت مؤخرًا مع NVIDIA اتفاق ترخيص غير حصري لملكية فكرية بقيمة 20 مليار دولار، ويتضمن ذلك 90% من موظفي Groq، إلى جانب الرئيس التنفيذي والرئيس المشارك المؤسس لـ TPU Jonathan Ross. وهذا في الواقع بمثابة استحواذ على فريق Groq وتقنيته؛ إذ إن بنية صفقات مثل هذه أصبحت شائعة بشكل متزايد في سوق عمليات الاندماج والاستحواذ، لأن شركات التكنولوجيا العملاقة تأمل في تجنب التأخيرات التي تسببها المراجعات التنظيمية. وبخصوص تطورات الاستحواذ الأخرى، انتقلت Intel مؤخرًا إلى إقامة شراكة مع SambaNova بعد فشل مفاوضات الاستحواذ—وفقًا للتقارير. وقد نفذت Intel أربع عمليات استحواذ في مجال الذكاء الاصطناعي منذ 2014، لكنها لم تنجح في إطلاق منتج ذكاء اصطناعي حظي باعتراف واسع من السوق—ويدعو هذا السجل إلى بعض الأسى.
آفاق المستقبل: وصول الحجم إلى 1.4 تريليون دولار في 2030
وفقًا لأبحاثنا، فإن النمو المستمر في الطلب خلال السنوات الخمس المقبلة والتحسين المستمر في الأداء سيقودان تطور برمجيات الذكاء الاصطناعي وخدمات السحابة، وسيشهد الإنفاق على البنية التحتية للذكاء الاصطناعي نموًا بثلاثة أضعاف خلال السنوات الخمس القادمة—من 500 مليار دولار في 2025 إلى ما يقارب 1.5 تريليون دولار في 2030.
تستند توقعاتنا إلى الملاحظات التاريخية لاستثمارات أنظمة مراكز البيانات مقارنةً بإيرادات البرمجيات. في أوائل 2010s، ومع صعود الحوسبة السحابية، كانت استثمارات الأنظمة تمثل حوالي 50% من إجمالي الإنفاق على البرمجيات عالميًا. وبحلول 2021، أدت الإفراط في الاستثمار بعد جائحة كوفيد-19 وتحسينات العملاء إلى خفض نسبة استثمارات الأنظمة إلى البرمجيات إلى مستوى منخفض عند ما يزيد قليلًا عن 20%. تفترض توقعاتنا البالغة 1.5 تريليون دولار أن قيمة الاستثمارات في 2030 ستشكل 20% من سيناريو توقع محايد لاستثماراتنا لإجمالي الإنفاق العالمي على البرمجيات (أي 7 تريليونات دولار في 2030)، وهي النسبة التي فصلناها بالتفصيل في مقالة مدونة العام الماضي. ونعتقد أن مستوى 20% يراعي بدرجة كافية مخاطر الإفراط في الاستثمار المحتملة قبل 2030، وكذلك احتمال أن تنمو إيرادات البرمجيات بمعدل أبطأ من سيناريو التوقع المحايد—وفي الحالة الأخيرة، نرى أن استثمارات البنية التحتية ستواصل الحفاظ على نمو سريع، كما كان الحال في أوائل 2010s.
ومع استمرار نمو الطلب على القدرة الحاسوبية المدفوعة بالذكاء الاصطناعي، نتوقع أن ترتفع حصة الشرائح المصممة خصيصًا ضمن الإنفاق على الحوسبة—لأن الوقت والتمويل اللازمين لتصميم شرائح موجهة لأحمال عمل محددة ستعكس ميزة أكبر مقابل كل دولار عند التوسع. ونعتقد أنه بحلول 2030، قد تتجاوز حصة ASICs المصممة خصيصًا في سوق الحوسبة الثلث.
وعلى الصورة الشاملة، تشير أبحاثنا إلى أن أعمال بناء البنية التحتية الجارية حاليًا ليست فقاعة على وشك الانفجار، بل هي أساس لتغيير على مستوى المنصة طالما كان بمثابة فرصة نادرة. تتوقع ARK أن يصل الإنفاق السنوي على البنية التحتية للذكاء الاصطناعي في 2030 إلى ما يقارب 1.5 تريليون دولار، وهو سوق مدفوع بطلب حقيقي ومستمر يتسارع من جانب كل من المستهلكين والمؤسسات، كما أن التكاليف المتناقصة باستمرار تواصل تأكيد وإطلاق حالات استخدام جديدة. نعتقد أن الشركات التي تبرز خلال السنوات الخمس المقبلة ستكون تلك التي تستطيع تصميم أكثر الشرائح كفاءة، وبناء أقوى نماذج، ثم نشر الاثنين على نطاق واسع وبشكل قابل للتنفيذ.
وكما أوضح الرئيس التنفيذي لـ NVIDIA Huang Renxun في مؤتمر مكالمة أرباح الربع الرابع للسنة المالية 2026، فإن وكلاء الذكاء الاصطناعي القابلة للاستخدام فعليًا لم تبدأ للتطبيق على نطاق واسع إلا خلال الأشهر القليلة الماضية. فهي تستهلك كميات كبيرة من الـ token، لكن قدراتها تتجاوز بكثير منتجات الذكاء الاصطناعي التي اعتاد معظم المستخدمين عليها سابقًا. إن توسيع هؤلاء الوكلاء ليصلوا إلى ملايين الشركات سيكون عملًا كثيفًا للغاية في جانب الحوسبة، وبحسب ما نرى، فإن مكاسب الإنتاجية الناتجة ستكون بالتأكيد تستحق هذه الاستثمارات.