Скануйте, щоб завантажити додаток Gate
qrCode
Більше варіантів завантаження
Не нагадувати сьогодні

NVIDIA ( NVDA ) стала 'операційною системою' фабрики штучного інтелекту: лідерство в інноваціях мережі дата-центрів

Джерело: TokenPost Оригінальна назва: 엔비디아(NVDA), стає «операційною системою» AI фабрики… веде інновації в мережі дата-центрів Оригінальне посилання: NVIDIA ( NVDA ) перевершує високопродуктивні графічні процесори, зосереджуючи увагу на інноваціях архітектури мереж між дата-центрами, встановлюючи нові стандарти для AI-фабрик. У розподілених обчислювальних структурах мережа використовується як операційна система для підвищення продуктивності та енергетичної ефективності.

Старший віце-президент відділу маркетингу Nvidia Гілад Шайнер ( у недавньому інтерв’ю підкреслив: “AI-навантаження за своєю суттю є розподіленими, тому потрібна точна координація мережі, щоб тисячі прискорювачів працювали як один обчислювальний двигун.” Структура, яка дозволяє без затримок передавати однакові дані до кожного GPU з однаковою швидкістю, повинна бути реалізована для оптимізації загальної швидкості обчислень.

У цій розподілій обробній структурі мережа більше не є простим засобом з'єднання, а виступає як суттєва операційна система )OS(. Шайна зазначає, що не тільки окремі GPU, спеціалізовані ASIC ), але й органічна інтеграція цих прискорювачів у мережевий дизайн стала найважливішим фактором, що визначає продуктивність AI фабрики.

NVIDIA не лише враховує продуктивність, але й енергоефективність, застосовуючи підхід до спільного проєктування (Co-design) для комплексного проєктування мережі через апаратне забезпечення, програмне забезпечення та фреймворки. Коли всі обчислювальні елементи, від модельного фреймворку до фізичних з'єднань, проектуються в цілому, можна максимально підвищити швидкість обробки токенів, ефективність виконання та передбачуваність. Шайна підкреслив це.

Особливо висока щільність дизайну є диференційованою перевагою NVIDIA. Хоча традиційні дата-центри схильні уникати надмірної щільності, NVIDIA застосувала іншу стратегію: тісно розмістила високопродуктивні GPU ASIC у стійках, досягаючи подвійної мети масштабованості та енергоефективності за допомогою низькоенергетичних мідних з'єднань. При масштабному розширенні використовуються такі технології, як 'Spectrum-X Ethernet Photonics(' або 'Quantum-X InfiniBand', які далі знижують енергію, споживану під час переміщення даних.

Ця стратегія виходить за межі простого оновлення апаратного забезпечення, чітко демонструючи амбіції NVIDIA в епоху централізованих обчислень AI реалізувати нову парадигму «супер великі дата-центри = суперкомп'ютери». Панування інфраструктури AI-фабрики переходить від «можливостей виробництва GPU» до «можливості перетворення всього дата-центру на органічні обчислювальні одиниці». Наступний етап буму AI, здається, розпочнеться з цієї мережевої домінуючої обчислювальної архітектури.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити