صناعة أشباه الموصلات أصبحت العمود الفقري للبنية التحتية للذكاء الاصطناعي، وبينما تهيمن Nvidia على العناوين مع وحدات معالجة الرسومات الخاصة بها، يكشف نظرة أعمق أن موردي المكونات يلتقطون فرصًا هائلة مع توسع مشغلي مراكز البيانات. وفقًا للمحللين، الثروة الحقيقية مخفية في نظام الدعم — ويستحق شركتان اهتمامًا جديًا.
مشكلة عنق الزجاجة في الذاكرة التي حلها Micron للتو
تحل شركة Micron Technology واحدة من أكبر مشاكل الذكاء الاصطناعي: عرض النطاق الترددي للذاكرة. الذاكرة عالية النطاق (HBM) هي المكون الحاسم الذي يحدد مدى سرعة معالجة وحدة معالجة الرسومات للبيانات فعليًا. بدون سعة كافية لـ (HBM)، حتى أقوى المعالجات مثل Blackwell Ultra GB300 من Nvidia وسلسلة MI350 من AMD تصل إلى حوائط الأداء.
وهنا تبرز شركة Micron. حلتها HBM3E توفر سعة أكبر بنسبة 50% من المنافسين مع استهلاك طاقة أقل بنسبة 30% — وهو تغيير قواعد اللعبة لاقتصاديات مراكز البيانات. لقد باعت الشركة بالفعل كامل إمداداتها من HBM3E لعام 2026 وتقوم الآن بإطلاق HBM4، الذي يدفع السعة بنسبة 60% إضافية مع تحسين كفاءة الطاقة بنسبة 20% أخرى.
الأرقام تروي القصة: وحدة أعمال ذاكرة السحابة (حيث تُباع مبيعات HBM لمراكز البيانات) انفجرت بنسبة 257% إلى 13.5 مليار دولار في السنة المالية 2025، مقارنة بنمو إيرادات الشركة الإجمالي بنسبة 49% إلى 37.3 مليار دولار. عند نسبة سعر السهم إلى الأرباح فقط 27.3 استنادًا إلى أرباح السنة المالية 2025، تعتبر Micron منخفضة التقييم بشكل كبير مقارنة بـ Nvidia (45.2) و AMD (57.9). عندما يتجاوز الطلب على وحدات معالجة الرسومات العرض — وهو ما يحدث الآن — يصبح موردو الذاكرة حراس عنق الزجاجة.
لعبة كابل كورنينج: البنية التحتية غير المرئية
كانت شركة كورنينج تضع لنفسها موضعًا كعمود فقري للألياف البصرية لمراكز بيانات الذكاء الاصطناعي بشكل هادئ. بينما اشتهرت منذ 2007 بزجاج هواتف آيفون من Apple، فإن قطاع الاتصالات البصرية لديها الآن هو محرك الأرباح. أظهرت نتائج الربع الثالث من 2025 أن إيرادات الاتصالات البصرية قفزت بنسبة 33% على أساس سنوي إلى 1.65 مليار دولار، مع ارتفاع الجزء الخاص بالمؤسسات $295 مدفوعًا بالذكاء الاصطناعي$585 بنسبة 58%.
يحتوي عقد واحد من Nvidia Blackwell على 72 وحدة معالجة رسومات متصلة بواسطة حوالي ميلين من الكابلات النحاسية — لكن هنا التحول: يتنقل المشغلون بسرعة إلى الألياف البصرية من كورنينج، التي تنقل البيانات بشكل أسرع وعلى مسافات أطول. مع توسع كل عقدة إلى مئات وحدات معالجة الرسومات، يتضاعف أو يتضاعف عدد الكابلات المطلوبة، وفقًا للرئيس التنفيذي Wendell Weeks.
القصة الربحية أكثر إقناعًا. قدمت الاتصالات البصرية (مليون دولار من صافي الدخل خلال الربع الثالث، بزيادة 69% على أساس سنوي وتمثل أكثر من نصف أرباح كورنينج )مليون دولار في الربع. يتداول السهم حاليًا عند نسبة سعر إلى الربح 35.9 — أرخص من معظم استثمارات شرائح الذكاء الاصطناعي — مما يشير إلى أن السوق لم يقدّر بالكامل بناء البنية التحتية القادم.
ما يفوته تحليل أنتوني $4 ولماذا يهم(
بينما تحظى اختيارات الأسهم الفردية بالاهتمام، فإن النمط الأوسع واضح: أي شخص يبني المكونات التي تجعل Blackwell وأنظمة الجيل التالي ممكنة هو في وضعية للنمو في 2026. لدى كورنينج وMicron كلاهما قوة تسعير، وطلبات مبيعات ممتلئة، وهوامش تتوسع بسرعة أكبر مما تشير إليه العناوين.
توقع الرئيس التنفيذي لـ Nvidia Jensen Huang أن ينفق مراكز البيانات حوالي )تريليون دولار سنويًا بحلول 2030 مع توسع البنية التحتية للذكاء الاصطناعي. هذا الزخم بقيمة تريليون دولار يعني أن الموردين لا يبيعون فقط مكونات — بل يبيعون حلولًا لصناعة في نمو فائق. كل من كورنينج (عند 35.9 P/E) و Micron عند 27.3 P/E مُسعّران للنمو المستقر، وليس للتسارع المتوقع في 2026.
ثورة أشباه الموصلات لم تعد تتعلق فقط بالمعالجات. إنها تتعلق بالمكدس الكامل — والموردون الذين يحافظون على تشغيل هذا المكدس يتفوقون بصمت على التوقعات.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
لماذا يتفوق مزودو بنية الذكاء الاصطناعي بصمت على المنافسة في عام 2026
صناعة أشباه الموصلات أصبحت العمود الفقري للبنية التحتية للذكاء الاصطناعي، وبينما تهيمن Nvidia على العناوين مع وحدات معالجة الرسومات الخاصة بها، يكشف نظرة أعمق أن موردي المكونات يلتقطون فرصًا هائلة مع توسع مشغلي مراكز البيانات. وفقًا للمحللين، الثروة الحقيقية مخفية في نظام الدعم — ويستحق شركتان اهتمامًا جديًا.
مشكلة عنق الزجاجة في الذاكرة التي حلها Micron للتو
تحل شركة Micron Technology واحدة من أكبر مشاكل الذكاء الاصطناعي: عرض النطاق الترددي للذاكرة. الذاكرة عالية النطاق (HBM) هي المكون الحاسم الذي يحدد مدى سرعة معالجة وحدة معالجة الرسومات للبيانات فعليًا. بدون سعة كافية لـ (HBM)، حتى أقوى المعالجات مثل Blackwell Ultra GB300 من Nvidia وسلسلة MI350 من AMD تصل إلى حوائط الأداء.
وهنا تبرز شركة Micron. حلتها HBM3E توفر سعة أكبر بنسبة 50% من المنافسين مع استهلاك طاقة أقل بنسبة 30% — وهو تغيير قواعد اللعبة لاقتصاديات مراكز البيانات. لقد باعت الشركة بالفعل كامل إمداداتها من HBM3E لعام 2026 وتقوم الآن بإطلاق HBM4، الذي يدفع السعة بنسبة 60% إضافية مع تحسين كفاءة الطاقة بنسبة 20% أخرى.
الأرقام تروي القصة: وحدة أعمال ذاكرة السحابة (حيث تُباع مبيعات HBM لمراكز البيانات) انفجرت بنسبة 257% إلى 13.5 مليار دولار في السنة المالية 2025، مقارنة بنمو إيرادات الشركة الإجمالي بنسبة 49% إلى 37.3 مليار دولار. عند نسبة سعر السهم إلى الأرباح فقط 27.3 استنادًا إلى أرباح السنة المالية 2025، تعتبر Micron منخفضة التقييم بشكل كبير مقارنة بـ Nvidia (45.2) و AMD (57.9). عندما يتجاوز الطلب على وحدات معالجة الرسومات العرض — وهو ما يحدث الآن — يصبح موردو الذاكرة حراس عنق الزجاجة.
لعبة كابل كورنينج: البنية التحتية غير المرئية
كانت شركة كورنينج تضع لنفسها موضعًا كعمود فقري للألياف البصرية لمراكز بيانات الذكاء الاصطناعي بشكل هادئ. بينما اشتهرت منذ 2007 بزجاج هواتف آيفون من Apple، فإن قطاع الاتصالات البصرية لديها الآن هو محرك الأرباح. أظهرت نتائج الربع الثالث من 2025 أن إيرادات الاتصالات البصرية قفزت بنسبة 33% على أساس سنوي إلى 1.65 مليار دولار، مع ارتفاع الجزء الخاص بالمؤسسات $295 مدفوعًا بالذكاء الاصطناعي$585 بنسبة 58%.
يحتوي عقد واحد من Nvidia Blackwell على 72 وحدة معالجة رسومات متصلة بواسطة حوالي ميلين من الكابلات النحاسية — لكن هنا التحول: يتنقل المشغلون بسرعة إلى الألياف البصرية من كورنينج، التي تنقل البيانات بشكل أسرع وعلى مسافات أطول. مع توسع كل عقدة إلى مئات وحدات معالجة الرسومات، يتضاعف أو يتضاعف عدد الكابلات المطلوبة، وفقًا للرئيس التنفيذي Wendell Weeks.
القصة الربحية أكثر إقناعًا. قدمت الاتصالات البصرية (مليون دولار من صافي الدخل خلال الربع الثالث، بزيادة 69% على أساس سنوي وتمثل أكثر من نصف أرباح كورنينج )مليون دولار في الربع. يتداول السهم حاليًا عند نسبة سعر إلى الربح 35.9 — أرخص من معظم استثمارات شرائح الذكاء الاصطناعي — مما يشير إلى أن السوق لم يقدّر بالكامل بناء البنية التحتية القادم.
ما يفوته تحليل أنتوني $4 ولماذا يهم(
بينما تحظى اختيارات الأسهم الفردية بالاهتمام، فإن النمط الأوسع واضح: أي شخص يبني المكونات التي تجعل Blackwell وأنظمة الجيل التالي ممكنة هو في وضعية للنمو في 2026. لدى كورنينج وMicron كلاهما قوة تسعير، وطلبات مبيعات ممتلئة، وهوامش تتوسع بسرعة أكبر مما تشير إليه العناوين.
توقع الرئيس التنفيذي لـ Nvidia Jensen Huang أن ينفق مراكز البيانات حوالي )تريليون دولار سنويًا بحلول 2030 مع توسع البنية التحتية للذكاء الاصطناعي. هذا الزخم بقيمة تريليون دولار يعني أن الموردين لا يبيعون فقط مكونات — بل يبيعون حلولًا لصناعة في نمو فائق. كل من كورنينج (عند 35.9 P/E) و Micron عند 27.3 P/E مُسعّران للنمو المستقر، وليس للتسارع المتوقع في 2026.
ثورة أشباه الموصلات لم تعد تتعلق فقط بالمعالجات. إنها تتعلق بالمكدس الكامل — والموردون الذين يحافظون على تشغيل هذا المكدس يتفوقون بصمت على التوقعات.