Samsung, Micron, Intel поділяють великий контракт Nvidia: Samsung здійснює виробництво LPU, Micron масово випускає HBM4

robot
Генерація анотацій у процесі

Групова конференція GTC 2026 від NVIDIA — це не лише презентація нових продуктів, а й перезавантаження ланцюга постачань. Зі зростанням деталей архітектури наступної AI-платформи Vera Rubin роль трьох гігантів чипів — Samsung, Micron та Intel — стає все більш очевидною.

Згідно з повідомленням TrendForce, у найактуальніших новинах ланцюга постачань генеральний директор NVIDIA Дженсен Ху підтвердив, що їхній Groq 3 LPU вироблятиметься на замовлення Samsung; Micron оголосив, що HBM4 увійшов у масове виробництво в першому кварталі 2026 року, що спростовує чутки про виключення його з ланцюга постачань Vera Rubin. Ці дві новини безпосередньо впливають на конкуренцію на ринку HBM та цінову політику постачальників.

Одночасно Intel підтвердив співпрацю з NVIDIA, повідомивши, що їхній процесор Xeon 6 забезпечить обчислювальну потужність для системи DGX Rubin NVL8. У довгостроковій перспективі, за повідомленням Wccftech, Intel має шанс взяти участь у пакуванні наступного покоління GPU Feynman, яке NVIDIA планує випустити у 2028 році, у ролі контрактного виробника чипів.

Samsung отримує замовлення на контрактне виробництво LPU, підтверджує Дженсен Ху

Groq 3 — одна з найочікуваніших новинок цієї GTC. Цей LPU, спеціально розроблений для високошвидкісного інференсу, буде інтегрований у платформу Vera Rubin і почне поставлятися у другій половині 2026 року. За повідомленням корейської газети «Чосон Ільбо», Ху вперше підтвердив, що Groq 3 вироблятиметься на фабриці Samsung, продовжуючи угоду, укладену минулого року, коли NVIDIA придбала Groq за 20 мільярдів доларів.

З технічної точки зору, дизайн Groq 3 суттєво відрізняється від основних AI-ускорювачів. За даними Tom’s Hardware, кожен Groq 3 LPU містить 500MB SRAM — високошвидкісної пам’яті, зазвичай використовуваної для кешу CPU та GPU.

Хоча цей об’єм значно менший за 288GB HBM4, що використовується у Rubin GPU, його пропускна здатність сягає близько 150TB/с — у кілька разів перевищує 22TB/с HBM4. Для задач інтенсивного пропуску даних у AI-інференсі ця архітектура може суттєво підвищити продуктивність.

Отже, замовлення на контрактне виробництво від Samsung означає, що її роль у ланцюгу постачань NVIDIA розширюється з постачальника пам’яті HBM4 до логічних чипів, і стратегічне положення на платформі Vera Rubin зміцнюється.

Масове виробництво HBM4 від Micron, тиск на монополію SK Hynix

На цій конференції Micron офіційно оголосив, що 36GB 12-шаровий HBM4 почав масове виробництво у першому кварталі 2026 року для платформи Vera Rubin від NVIDIA. Цей продукт має швидкість контакту понад 11 Gb/s і пропускну здатність понад 2,8 TB/с, що у 2,3 рази перевищує HBM3E, а енергоефективність зросла більш ніж на 20%. Крім того, Micron почав надсилати клієнтам зразки 48GB 16-шарових HBM4, що на 33% більше за об’єм у порівнянні з 12-шаровою версією.

Цей прогрес має не лише технічне значення для Micron. За аналізом Joseilbo.com, прискорення масового виробництва Micron зменшить концентрацію постачальників HBM і створить додатковий тиск на існуючих гравців у цінових переговорах. У статті зазначається, що головний ефект цієї ініціативи — не безпосередньо відсікати частку ринку SK Hynix, а послабити монопольну надплату, що виникає під час пікових періодів попиту на HBM.

Samsung також стикається з більш прямою конкуренцією. Як зазначає Joseilbo.com, хоча Samsung офіційно просуває виробництво HBM4 для демонстрації технічної спроможності, масштабне постачання Micron для платформи Vera Rubin може змінити критерії конкуренції з «можливістю масового виробництва» на «реальні обсяги застосування», що ставить перед Samsung нові виклики.

Intel веде дві лінії роботи, з’являється співпраця щодо пакування Feynman

Вплив Intel на цій GTC також важко переоцінити. Офіційно підтверджено, що їхній процесор Xeon 6 забезпечить підтримку системи DGX Rubin NVL8 від NVIDIA. За даними Tom’s Hardware, цей процесор має у 2,3 рази більшу пропускну здатність пам’яті порівняно з попереднім поколінням і здатен забезпечити масштабовану високопродуктивну AI-обчислювальну потужність для майбутніх GPU.

Що стосується довгострокових планів, за повідомленням Wccftech, NVIDIA має намір співпрацювати з Intel у сфері контрактного виробництва, використовуючи передові технології пакування, зокрема EMIB, для створення корпусу наступного GPU Feynman, який планується представити у 2028 році. Важливо зазначити, що сама мікросхема Feynman, за попередніми даними, буде виготовлена на TSMC за 1,6 нм техпроцесом, а участь Intel зосереджена на пакуванні.

Платформа Feynman також передбачає використання 3D-стекінгу чипів, що, ймовірно, стане першою такою технологією у GPU від NVIDIA. У планах NVIDIA — оснащення Feynman кастомізованою HBM, а не стандартною наступною генерацією HBM, що додатково підсилить її конкурентні переваги у AI-даних центрах.

Ризики та застереження

Ринок має свої ризики, інвестиції слід здійснювати обережно. Цей матеріал не є інвестиційною рекомендацією і не враховує індивідуальні цілі, фінансовий стан або потреби користувачів. Користувачі повинні самостійно оцінити, чи відповідають наведені поради їхнім конкретним обставинам. Відповідальність за інвестиції несе кожен сам.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити