La Chine et les États-Unis « encerclent et suppriment » Nvidia, il est difficile de dominer le marché des puces d'IA d'une valeur de mille milliards de dollars
Alors que Nvidia prend la tête de l'occupation du marché des puces de puissance de calcul de grands modèles d'IA, sa valeur marchande dépasse les mille milliards. Dans le même temps, Intel, AMD et les sociétés chinoises de puces GPU sont également en concurrence secrète, dans l'espoir d'obtenir une part du marché des puces de puissance de calcul IA.
**Le 19 septembre, lors de la conférence sur l'innovation technologique Intel On qui s'est tenue à San Jose, aux États-Unis, **PDG d'Intel, Pat Gelsinger, 62 ans, était « plein d'énergie » et a commencé son discours par des pompes.
Lors de cette réunion, Gelsinger a présenté d'un seul coup une série de nouveaux produits technologiques : un processeur Intel Core Ultra basé sur le processus Intel 4 (5 nm), nommé "Meteor Lake", un aperçu de la puce de serveur Xeon de cinquième génération et de la feuille de route des produits Xeon ultérieurs. ; divulgué la puce AI 5 nm Gaudi 3, etc.
Pat Gelsinger, PDG d'Intel, fait des pompes sur place
Par rapport aux sessions précédentes, cette fois Kissinger « s'est transformé en un vieil homme vêtu de cuir » et a parlé du rôle de la puissance de calcul de l'IA sur l'économie pendant près de 2 heures. Selon les statistiques de l'application TMTpost, Kissinger a mentionné environ 200 fois les termes liés à « l'intelligence artificielle » et au « deep learning » dans son discours.
Presque au même moment, Intel et le concurrent de Nvidia, AMD, ont lancé la dernière puce CPU (unité centrale de traitement) EPYC 8004 et devraient expédier des puces AI de la série MI300 avant la fin de l'année pour concurrencer Nvidia. En outre, en Chine, les fabricants de puces d'IA, notamment Huawei et Tianshu Zhixin, déploient également activement des produits d'inférence de formation sur de grands modèles et de puissance de calcul d'IA.
"Nous sommes en concurrence très féroce avec NVIDIA, le leader du marché des puces de puissance de calcul pour l'IA. Mais Gaudi2 et Gaudi3 représentent tous deux un grand pas en avant par rapport à eux. Nous prenons de l'ampleur et le marché commence à se rendre compte que parmi les leaders de l'IA Industrie des puces Il existe une autre opportunité", a déclaré Kissinger à CNBC le 20 septembre.
La concurrence sur le marché s'intensifie et il est difficile pour le « Vieux Huang » de monopoliser des milliards de puissance de calcul de l'IA
De 2023 à aujourd’hui, « l’engouement » pour les grands modèles d’IA représentés par ChatGPT a balayé le monde, et les grands modèles favorisent le développement de l’IA dans une direction plus générale.
Dans le même temps, la rareté et le coût de la puissance de calcul sont devenus des facteurs majeurs limitant le développement de l’IA. La puissance de calcul est également devenue une pierre angulaire importante de la transformation numérique et intelligente de l’ensemble de la société, entraînant ainsi une augmentation de la demande de puissance de calcul intelligente.
Selon les données fournies par Lisa Su, PDG d'AMD, le marché potentiel total des accélérateurs d'IA pour centres de données mondiaux atteindra environ 30 milliards de dollars américains en 2023, et ce chiffre devrait dépasser 150 milliards de dollars américains d'ici 2027 ((environ 1,095 billion de RMB), avec un taux de croissance annuel composé de plus de 50 %.
Manuvir Das, vice-président de l'informatique d'entreprise chez Nvidia, a fourni un autre ensemble de données montrant que le marché potentiel (TAM) de l'IA devrait atteindre 600 milliards de dollars. Parmi eux, les puces et les systèmes peuvent rapporter 300 milliards de dollars américains, les logiciels d'IA générative peuvent obtenir 150 milliards de dollars américains, et les 150 milliards de dollars américains restants proviendront des logiciels d'entreprise NVIDIA.
**De toute évidence, le marché des puces de puissance de calcul IA est un gros « gâteau ». **
Mais actuellement, NVIDIA occupe 82 % du marché mondial de l'accélération de l'IA dans les centres de données et monopolise le marché mondial de la formation à l'IA avec 95 % de part de marché, devenant ainsi le plus grand gagnant de cette ronde de mêlée à l'IA. Huang Renxun et sa société Nvidia gagnent beaucoup d'argent, avec une valeur marchande de plus de 1 000 milliards de dollars américains.
Dans le même temps, l'augmentation de la demande en puissance de calcul a directement rendu le GPU (unité de traitement graphique) NVIDIA « difficile à trouver ». Le nombre de cartes graphiques Nvidia A100 est devenu une norme pour mesurer la puissance de calcul d'une entreprise.
**En effet, si une entreprise souhaite développer un grand modèle généraliste, elle doit d'abord faire attention à deux points en termes de puissance de calcul : le nombre et le prix des cartes graphiques. **
**Parmi eux, en termes de nombre de cartes graphiques, **OpenAI utilise 10 000 à 30 000 GPU NVIDIA pour entraîner le modèle GPT-3.5. Selon le dernier rapport de TrendForce, s'il est calculé en fonction de la puissance de traitement des cartes graphiques NVIDIA A100, l'exécution de ChatGPT peut nécessiter l'utilisation de 30 000 cartes graphiques NVIDIA GPU. De plus, en termes de modèles open source, le modèle Llama est formé sur 2048 A100 de 80 Go, et la puissance de calcul totale de formation est proche de la puissance de calcul de 2000 PTOPS.
En termes de prix, le prix du H800 actuellement disponible en Chine a atteint 200 000/pièce, tandis que le prix du A100/A800 est passé à environ 150 000 et 100 000/pièce. En prenant comme exemple la puissance de calcul requise de 2000P, le GPU H800 a une puissance de calcul d'une seule carte de 2P et nécessite 1 000 cartes graphiques. Le prix estimé de la carte entière est de 200 millions de yuans; la puissance de calcul d'une seule carte A800 est d'environ 0,625P et la quantité requise est de 3 200 cartes graphiques. Le prix estimé de l'ensemble de la carte graphique est de 320 millions de yuans.
En plus d'acheter une carte graphique GPU, le serveur doit également prendre en compte la configuration et le calcul de l'ensemble de la machine, y compris le processeur, le stockage, les connexions de communication NV-Link, etc., ainsi que des facteurs tels que la consommation électrique, la location du site, et les coûts d’exploitation et d’entretien.
À l'heure actuelle, les serveurs A800 et H800 sont principalement des modèles à 8 cartes. Afin d'atteindre une puissance de calcul de 2 000 P, il est nécessaire de configurer 125 serveurs H800 à 8 cartes ou 400 serveurs A800 à 8 cartes, au prix de 300 millions de yuans. et 560 millions de yuans respectivement. De plus, comme le H800 prend également en charge PCIe 5.0, une nouvelle génération de processeurs et de mémoire, le prix doit être augmenté pour atteindre ses performances informatiques optimales.
Par conséquent, du point de vue de la formation sur de grands modèles, le coût total d'achat du H800 est inférieur à celui de l'A800, ce qui est plus rentable et inférieur au coût de construction d'un processeur. C'est ce que disait souvent le PDG de NVIDIA, Jen-Hsun Huang. récemment : « Plus vous achetez, plus c'est rentable. » et plus vous économisez. »
Bien sûr, peu importe si vous n’en avez vraiment pas les moyens. NVIDIA a également lancé judicieusement un service de location en ligne, le système informatique super AI DGX, ouvert aux entreprises via la location. Il est équipé de 8 GPU H100 ou A100, chaque nœud dispose de 640 Go de mémoire et le loyer mensuel est de 37 000 $ US. il n'est donc pas nécessaire de créer vos propres données. Le centre achète un grand nombre de cartes graphiques GPU. Ce type de méthode de location a une marge bénéficiaire brute élevée. Selon un rapport sur le service « Cloud Computing Power Leasing » de Microsoft, la marge bénéficiaire brute de cette entreprise atteint 42 %, ce qui en fait une nouvelle « vache à lait » pour Microsoft. .
Sur le marché intérieur, InBev Digital, SenseTime AIDC et plus de 11 autres fournisseurs de centres de calcul/cloud intelligents proposent également des services similaires. Pour les grands modèles, le prix global est inférieur de plus de 20 % au prix auto-construit.
**De plus, il y a du temps de formation pour les grands modèles. **Le nouveau GPU NVIDIA L40S de NVIDIA est plus efficace en formation que le modèle A800/H800. Un modèle avec 7 milliards de paramètres prend 17 heures pour fonctionner sur le HGX A800, tandis que le L40S est 1,3 fois plus rapide et peut être exécuté en seulement une demi-journée. Sans oublier qu'un modèle avec 175 milliards de paramètres peut être entraîné en un week-end avec le L40S. .
En général, si une entreprise souhaite construire un grand modèle, elle devra dépenser des centaines de millions de yuans en coûts de puissance de calcul, et ce n'est que le « ticket ».
Il a été rapporté précédemment que Baidu, Bytedance, Tencent et Alibaba avaient passé des commandes de puces d'une valeur de 5 milliards de dollars à Nvidia. En ajoutant le nombre de cartes graphiques précédemment thésaurisées, le nombre total de cartes graphiques GPU Nvidia en Chine dépasse 100 milliards de yuans. L'organisme d'études de marché Counterpoint a publié un rapport indiquant que malgré le ralentissement cyclique de l'industrie des semi-conducteurs, des entreprises chinoises telles que Tencent et Baidu continuent d'acheter des puces Nvidia A800 en grande quantité.
**Ainsi, sur un marché aussi important qui pèse des milliers de milliards, ni les fabricants de puces ni les clients en aval ne veulent voir « NVIDIA » dominer. Par conséquent, AMD, Intel et les sociétés chinoises de puces GPU ont tenté de contester la domination de Nvidia sur le marché des puces IA. **
**AMD frappe en premier. **
En termes de puces IA, lors du Consumer Electronics Show (CES) 2023 en janvier de cette année, Lisa Su, présidente-directrice générale d'AMD, a officiellement lancé le produit APU (processeur accéléré) de nouvelle génération, Instinct MI300, pour les centres de données, utilisant TSMC 5 nm + 6 nm combinés. Conception d'architecture Chiplet, CPU et GPU intégrés, avec 13 petites puces, avec un nombre de transistors jusqu'à 146 milliards, les performances de l'IA et les performances par watt sont 8 fois et 5 fois celles de la génération précédente MI250 (en utilisant le test de référence FP8 clairsemé), sera produit en série et fourni au second semestre 2023.
Puis, en juin, AMD a également annoncé de nouvelles puces d'accélération de l'IA Instinct MI300X, Instinct MI300A et d'autres produits spécialement conçus pour l'IA générative avec 153 milliards de transistors, qui se sont améliorés en termes de capacité de stockage et de bande passante d'interconnexion. la mémoire à large bande passante est 2,4 fois supérieure à celle du H100. Un grand modèle comportant 80 milliards de paramètres peut être exécuté sur une seule puce et devrait être expédié avant la fin de cette année.
Cela démontre non seulement pleinement les capacités technologiques d'IA des centres de données après l'acquisition de Xilinx, mais remet également en question la domination de Nvidia sur les puces informatiques d'IA.
Bien sûr, il ne s’agit pas uniquement de GPU et de puces IA. Ce qu’AMD fait le mieux, c’est de fabriquer des puces CPU (unité centrale de traitement). Après tout, les centres de données ont besoin de la puissance de calcul générale des CPU. En novembre de l'année dernière, AMD a lancé la série EPYC 9004 de centre de données de quatrième génération utilisant l'architecture Zen 4, nommée "Genoa". Non seulement l'architecture a été mise à niveau, mais Su Zifeng a également empilé les matériaux sur cette puce à l'extrême : processus TSMC 5 nm , 96 cœurs, 192 threads, 384 Mo de cache L3 et prend en charge PCle5.0.
Par rapport aux processeurs Intel à huit cœurs, les séries de processeurs pour centres de données et Edge Computing d'AMD se sont considérablement améliorées en termes de consommation d'énergie et de performances, notamment une réduction de 40 % de la surface de la puce Genoa et une amélioration de 48 % de l'efficacité énergétique.
En septembre de cette année, AMD a lancé la dernière série EPYC 8004 de quatrième génération, introduisant le cœur « Zen 4c » dans les processeurs dédiés, fournissant des services allant des périphéries intelligentes (comme la vente au détail, la fabrication et les télécommunications) aux centres de données, au cloud computing et autres. des champs.
En fait, Amazon Cloud AWS a publié une instance de calcul générale basée sur le Genoa M7A. Les résultats finaux ont montré que les performances ont été améliorées de 50 % par rapport à la génération précédente. Par rapport à la version Intel Xeon Platinum Edition 8490H de quatrième génération, les performances de Genoa dans plusieurs scénarios d'application L'amélioration est de 1,7 à 1,9 fois et l'efficacité énergétique globale est améliorée de 1,8 fois.Il est entièrement utilisé dans les domaines du calcul haute performance tels que la modélisation financière, la simulation météorologique et la recherche et le développement de médicaments. De plus, dans la charge de travail de la passerelle IoT Edge, le dernier serveur à huit cœurs alimenté par EPYC 8024P fournit également environ 1,8 fois la performance de débit totale par rack de 8 kW.
Dans l'ensemble, qu'il s'agisse d'un CPU, d'un GPU, d'un FPGA, d'un processeur de centre de données DPU ou d'un outil de pile logicielle du système AMD ROCm, AMD est prêt et « affûte son épée » pour défier les produits de Nvidia.
**En tant que géant des puces établi depuis plus de 60 ans, Intel ne veut pas « céder le marché à d'autres ». **
Le 11 juillet de cette année, le géant des puces Intel Corporation (Intel) a lancé la puce d'IA Habana Gaudi2 pour le marché chinois à Pékin, en utilisant un processus de 7 nm. Elle peut exécuter de grands modèles de langage, accélérer la formation et l'inférence de l'IA et a une performance par watt d'environ 100 % lors de l'exécution de ResNet-50. Il est 2 fois supérieur à celui du NVIDIA A100 et son rapport prix/performance est 40 % supérieur à celui des solutions basées sur NVIDIA dans le cloud AWS. Il devrait surpasser le dernier H100 de NVIDIA en prix/performance en septembre de cette année.
Sandra Rivera, vice-présidente exécutive d'Intel, a déclaré à TMTpost en juillet de cette année qu'il était impossible pour une seule entreprise de dominer le marché des puces d'IA. Parce que le marché a besoin de diversité et que les clients souhaitent également voir davantage d’entreprises de puces jouer un rôle de leader dans le domaine de l’IA.
Pat Gelsinger, PDG d'Intel
En septembre, lors de la conférence sur l'innovation technologique Intel On qui s'est tenue à San Jose, aux États-Unis, Gelsinger a annoncé que la puce IA Gaudi 3 utilisant le processus 5 nm serait lancée l'année prochaine. D'ici là, sa puissance de calcul sera le double de celle de Gaudi 2. , et sa bande passante réseau, HBM La capacité sera de 1,5 fois.
Dans le même temps, Gelsinger a également présenté en avant-première le processeur de serveur évolutif Intel Xeon de cinquième génération, affirmant que le Xeon de nouvelle génération comportera 288 cœurs, ce qui devrait augmenter la densité du rack de 2,5 fois et les performances par watt de 2,4 fois. En outre, Intel a également lancé Sierra Forest et Granite Rapids, qui devraient multiplier par 2 à 3 les performances de l'IA par rapport au Xeon de quatrième génération.
Zhou Jingren, directeur de la technologie d'Alibaba Cloud, a déclaré qu'Alibaba utilise des processeurs Intel Xeon de quatrième génération pour son IA générative et ses grands modèles de langage, à savoir le « Alibaba Cloud Tongyi Qianwen Large Model », et que la technologie Intel a considérablement réduit le temps de réponse du modèle, la moyenne l'accélération peut atteindre 3 fois.
De plus, pour la formation sur de grands modèles d'IA, ce qui est plus important, c'est l'écosystème logiciel. Intel a annoncé sa coopération avec Arm pour déployer ses produits Xeon sur le processeur Arm, et a également lancé la suite d'outils d'exécution d'inférence et de déploiement d'IA OpenVINO, qui non seulement prend en charge les modèles pré-entraînés, mais ne doit également être écrite qu'une seule fois pour déployer n'importe quel modèle. Prise en charge multiplateforme clé disponible, le modèle Llama 2 de Meta a été pris en charge.
Dans le même temps, la Fondation Linux a également annoncé cette semaine la création de la Fondation Unified Acceleration (UXL) pour fournir un modèle de programmation d'accélérateur standard ouvert afin de simplifier le développement d'applications multiplateformes hautes performances. évolution du programme Intel oneAPI. Les membres fondateurs incluent Arm, Google Cloud, Intel, Qualcomm, Samsung et d’autres – Nvidia n’en fait pas partie.
Wang Rui, vice-président senior d'Intel Corporation et président d'Intel Chine, a déclaré à TMTpost App et à d'autres qu'Intel lancerait à l'avenir un processeur doté de 288 cœurs. Il y aura de plus en plus de centres de données à l'avenir. Intel lancera des produits tels que Gaudi3 et Falcon Shores. La matrice de produits constituera une feuille de route pour le futur développement des accélérateurs et de l'informatique IA.
"Nous avons intégré des capacités d'IA dans la puce. Selon les différents besoins, les capacités d'IA intégrées utiliseront différentes puissances de calcul et différentes architectures pour fournir un support. " Wang Rui a déclaré qu'en termes de centres de données, du client à la périphérie. Jusqu'au cloud, l'IA a pénétré divers scénarios d'application : de la formation de modèles de langage à grande échelle à la formation de modèles de langage inclusifs à petite échelle, l'influence de l'IA est partout.
Fin août de cette année, Kissinger a déclaré qu'il pensait qu'Intel était en train d'atteindre ses objectifs ambitieux de restructuration et de restaurer sa position de leader dans l'industrie. En parlant de Nvidia, Gelsinger a admis que Nvidia avait une bonne configuration et pouvait capter la demande de systèmes nécessaires pour prendre en charge l'expansion des logiciels d'IA, mais il a déclaré qu'Intel commencerait bientôt à remporter des commandes sur ces marchés de puces accélératrices.
"Ils ont fait un excellent travail et nous les félicitons tous. Mais nous sommes sur le point de montrer notre force", a déclaré Kissinger.
La valeur marchande de Nvidia s'est évaporée de centaines de milliards de dollars. Les puces nationales peuvent-elles saisir l'opportunité ?
Les brillantes performances de Nvidia en 2023 semblent s'être affaiblies au cours des deux derniers mois.
Selon les données de Refinitiv, bien que le cours de l'action de Nvidia ait augmenté d'environ 190 % cette année et que ses performances soient très impressionnantes, son cours de bourse a mal performé en septembre : depuis le 31 août, le cours de l'action de Nvidia a chuté de plus de 10 % et son la valeur marchande totale s'est évaporée : plus de 176 milliards de dollars.
**En fait, de nombreux facteurs contribuent à la baisse du cours de l'action Nvidia. **
Premièrement, les inquiétudes du marché concernant le maintien plus long des taux d'intérêt à des niveaux plus élevés par la Réserve fédérale afin de freiner l'inflation se sont intensifiées. L'ensemble du marché boursier a été sous pression, l'indice S&P 500 ayant baissé en moyenne de 0,7 % en septembre. et près de 4% jusqu'à présent.
**Deuxièmement, **les modèles open source représentés par LIama 2 ont été publiés les uns après les autres, et de plus en plus d'entreprises ont commencé à utiliser ces modèles directement, ne nécessitant que l'application de puces d'inférence IA, ce qui a entraîné une réduction de la demande de calcul. puces d'entraînement de puissance.
Enfin, selon The Information, NVIDIA accorde une attention particulière à la fourniture de cartes graphiques à certaines petites et moyennes entreprises de cloud computing aux États-Unis. Dans la situation actuelle de « difficulté à trouver une carte ». , NVIDIA est très préoccupé par la fourniture de cartes graphiques aux grandes entreprises telles que Google et Meta, ainsi qu'aux entreprises chinoises. Les services de suivi et la fourniture de cartes graphiques ne semblent plus être la priorité absolue, ce qui conduit directement au marché. des doutes sur les capacités d'approvisionnement en produits de Nvidia.
Bien entendu, malgré ses défauts, NVIDIA dispose d’un énorme avantage en tant que premier arrivé sur le marché de la puissance de calcul de l’IA. En plus des performances de pointe de sa puce GPU, son énorme écosystème logiciel d’IA CUDA est hors de portée de nombreuses personnes. De plus, la technologie d'interconnexion GPU haute vitesse NVLink de NVIDIA est également devenue une « arme magique clé » pour l'amélioration de la technologie des grands modèles, et son rôle est bien supérieur à celui de la carte GPU elle-même.
Le fondateur et PDG de Baichuan Intelligence, Wang Xiaochuan, a mentionné un jour que dans ce secteur, les coûts de puissance de calcul des GPU représentent environ 40 à 70 % et que le rapport entre les coûts de connexion réseau et les coûts des cartes graphiques GPU est d'environ 3 : 1.
"Si nous évoluons vers des modèles plus élevés à l'avenir, la réserve de puissance de calcul est très critique. Du point de vue de la formation et du raisonnement, le raisonnement nécessite des puces d'IA nationales, pas seulement NVIDIA, mais la formation n'est actuellement effectuée que par NVIDIA. Ce "calcul" "Nous devons lutter dur, les puces d'IA nationales de la Chine doivent être capables de rivaliser", a déclaré Wang Xiaochuan.
**En fait, en plus des deux principaux géants des puces, avec la « guerre nationale des 100 modes », la demande de puissance de calcul de l'IA a augmenté. Cependant, de nombreuses puces d'IA telles que Nvidia AI00/H100 ont restreint les exportations vers la Chine, ce qui rend de plus en plus difficile pour les entreprises nationales d'obtenir des puces haut de gamme en provenance des États-Unis. **
En octobre 2022, le Bureau de l'industrie et de la sécurité (BIS) du ministère américain du Commerce a publié de nouvelles réglementations de contrôle des exportations pour quantifier diverses puissances de calcul, bande passante, processus de fabrication et autres indicateurs des puces, et restreindre les exportations des entreprises américaines vers la Chine, notamment restrictions sur les puces à haute puissance de calcul, ayant un impact direct sur le développement de l'IA, du supercalcul, des centres de données et d'autres industries connexes en Chine. NVIDIA, un fabricant de GPU (processeurs graphiques) qui répond principalement aux besoins de l'IA et d'autres applications, a reçu en août une notification du gouvernement américain lui demandant de restreindre l'exportation de puces avancées.
Nvidia a réagi rapidement et a mis en production la puce A800 au troisième trimestre 2022 pour remplacer l'A100 qui ne peut plus être expédiée en Chine. Il s'agit également du premier produit « offre spéciale » lancé par une société américaine à cet effet. Nvidia n'a pas annoncé les paramètres détaillés de l'A800, mais le manuel produit fourni par ses revendeurs montre que la puissance de calcul maximale de l'A800 est conforme à celle de l'A100, dont l'exportation est limitée, mais que le taux de transmission est limité aux deux tiers de celui de l'A800. l'A100 pour se conformer aux exigences gouvernementales américaines pertinentes. La puissance de calcul d'entraînement du dernier H800 « China Special Edition » est environ 40 % inférieure à celle du H100. Sans le module d'interconnexion fourni par NVIDIA, l'écart de puissance de calcul peut atteindre plus de 60 %.
Intel lancera une version chinoise de son produit Gaudi 2 en juillet 2023. Gaudi 2 est une puce ASIC (Application Specific Integrated Circuit) principalement conçue pour la formation en IA d'apprentissage profond haute performance. Par rapport à la version internationale annoncée en mai 2022, le nombre de ports Ethernet intégrés dans la version chinoise de Gaudi 2 a été réduit de 24 à 21. Intel avait déclaré à l'époque qu'il s'agissait d'un changement relativement mineur avec un impact limité sur les performances réelles. Kissinger a récemment déclaré que la société vendait actuellement la version chinoise de Gaudi 2 en Chine et qu'il espérait continuer à le faire à l'avenir.
** Ainsi, sous l'influence des restrictions étrangères sur les puces, les sociétés nationales de puissance de calcul de l'IA telles que Huawei, Tianshu Zhixin, Cambrian et Denglin Technology se déploient activement pour combler le poste vacant en matière de puissance de calcul de l'IA nationale. **
À l'heure actuelle, le marché national de la puissance de calcul de l'IA est principalement divisé en trois factions principales : l'une est la solution de puissance de calcul de l'écosystème Huawei Kunpeng et Ascend AI, qui n'implique pas la participation du GPU NVIDIA ; l'autre est la prise en charge de la puissance de calcul hybride, qui utilise un grand nombre de puces NVIDIA A100 et Dans certains environnements, AMD, Intel, Tianshu Intelligent Core, Cambrian, Haiguang et d'autres puces sont ajoutées pour prendre en charge la formation de grands modèles ; troisièmement, une puissance de cloud computing de serveur plus rentable est louée à combler le manque de puissance de calcul.
Lors du 19e sommet d'été du Forum des entrepreneurs chinois de Yabuli 2023, qui s'est tenu en août de cette année, Liu Qingfeng, fondateur et président d'iFlytek, a déclaré que les capacités techniques du GPU de Huawei étaient désormais équivalentes à celles du Nvidia A100 et qu'elles étaient désormais comparées à celles du Nvidia A100.
Le 20 septembre, Meng Wanzhou, vice-président, président tournant et directeur financier de Huawei, a déclaré que Huawei avait lancé le cluster informatique Ascend AI avec une nouvelle architecture capable de prendre en charge la formation de grands modèles avec plus de mille milliards de paramètres. Huawei continuera de bâtir une solide base de puissance de calcul.
Gai Lujiang, président-directeur général de Tianshu Zhixin, a révélé qu'à l'heure actuelle, de nombreuses sociétés nationales de modélisme à grande échelle ont commencé à utiliser des cartes graphiques GPU nationales et que la société a soutenu l'achèvement d'une formation de modèles à grande échelle avec 7 milliards de paramètres. De plus, la plupart des autres sociétés nationales de GPU sont en phase de formation à l'inférence IA.
Galujiang estime qu'en Chine, la part de marché de Nvidia dans le domaine de la formation atteint plus de 95 %, certains atteignant 99 %, et elle a pratiquement atteint un monopole, principalement en raison de son architecture matérielle et de son écosystème CUDA largement utilisé - il compte plus de 300 millions d’utilisateurs dans le monde. Actuellement, les sociétés nationales de GPU sont confrontées à des problèmes de migration écologique. En raison du grand nombre de codes basés sur CUDA, la transition vers un nouvel écosystème nécessitera beaucoup de temps et d'argent.
Lors d'une récente table ronde, Wang Ping, co-fondateur et architecte en chef de Denglin Technology, a mentionné que les clients d'AIGC ont non seulement besoin de solutions telles que la génération de texte et la génération d'images, mais, plus important encore, de produits pratiques. Par conséquent, il est nécessaire de mettre en œuvre des produits dotés d’une grande puissance de calcul et d’une forte polyvalence afin de créer de la valeur pour les clients. Il est rapporté que les produits de puces IA de nouvelle génération de Denglin Technology ont un avantage de consommation d'énergie plus de trois fois supérieur à celui des produits GPU à usage général grand public internationaux.
Galujiang a déclaré que pour Tianshu Zhixin, la prochaine étape consiste à optimiser l'itération du produit, ce qui nécessite de s'appuyer sur les données, les commentaires des clients et l'innovation technologique, et de procéder à des ajustements pour répondre aux besoins nationaux particuliers. Dans le même temps, l'entreprise améliorera activement l'écosystème et la pile logicielle pour garantir que les utilisateurs bénéficient de la meilleure expérience en termes d'efficacité, de coût, de performance et de rapport qualité-prix, afin de promouvoir la commercialisation ultérieure des produits.
Wang Ping estime qu'en raison de la difficulté accrue d'obtenir des puces haut de gamme en provenance des États-Unis, même si aucune entreprise nationale ne peut produire des puces capables de véritablement les remplacer, il estime que la puissance de calcul nationale continuera de croître. Les puces doivent être itérées en permanence. Plus il y a d'utilisateurs et plus il y a de commentaires sur les problèmes, plus les entreprises nationales de puces d'IA peuvent améliorer et améliorer l'expérience utilisateur dans les itérations ultérieures.
"Il s'agit d'une opportunité majeure pour les sociétés nationales de GPU à usage général", a déclaré Galujiang à TMTpost Media App.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
La Chine et les États-Unis « encerclent et suppriment » Nvidia, il est difficile de dominer le marché des puces d'IA d'une valeur de mille milliards de dollars
Auteur : Lin Zhijia
Source : Médias TMTpost
Alors que Nvidia prend la tête de l'occupation du marché des puces de puissance de calcul de grands modèles d'IA, sa valeur marchande dépasse les mille milliards. Dans le même temps, Intel, AMD et les sociétés chinoises de puces GPU sont également en concurrence secrète, dans l'espoir d'obtenir une part du marché des puces de puissance de calcul IA.
**Le 19 septembre, lors de la conférence sur l'innovation technologique Intel On qui s'est tenue à San Jose, aux États-Unis, **PDG d'Intel, Pat Gelsinger, 62 ans, était « plein d'énergie » et a commencé son discours par des pompes.
Lors de cette réunion, Gelsinger a présenté d'un seul coup une série de nouveaux produits technologiques : un processeur Intel Core Ultra basé sur le processus Intel 4 (5 nm), nommé "Meteor Lake", un aperçu de la puce de serveur Xeon de cinquième génération et de la feuille de route des produits Xeon ultérieurs. ; divulgué la puce AI 5 nm Gaudi 3, etc.
Par rapport aux sessions précédentes, cette fois Kissinger « s'est transformé en un vieil homme vêtu de cuir » et a parlé du rôle de la puissance de calcul de l'IA sur l'économie pendant près de 2 heures. Selon les statistiques de l'application TMTpost, Kissinger a mentionné environ 200 fois les termes liés à « l'intelligence artificielle » et au « deep learning » dans son discours.
Presque au même moment, Intel et le concurrent de Nvidia, AMD, ont lancé la dernière puce CPU (unité centrale de traitement) EPYC 8004 et devraient expédier des puces AI de la série MI300 avant la fin de l'année pour concurrencer Nvidia. En outre, en Chine, les fabricants de puces d'IA, notamment Huawei et Tianshu Zhixin, déploient également activement des produits d'inférence de formation sur de grands modèles et de puissance de calcul d'IA.
"Nous sommes en concurrence très féroce avec NVIDIA, le leader du marché des puces de puissance de calcul pour l'IA. Mais Gaudi2 et Gaudi3 représentent tous deux un grand pas en avant par rapport à eux. Nous prenons de l'ampleur et le marché commence à se rendre compte que parmi les leaders de l'IA Industrie des puces Il existe une autre opportunité", a déclaré Kissinger à CNBC le 20 septembre.
La concurrence sur le marché s'intensifie et il est difficile pour le « Vieux Huang » de monopoliser des milliards de puissance de calcul de l'IA
De 2023 à aujourd’hui, « l’engouement » pour les grands modèles d’IA représentés par ChatGPT a balayé le monde, et les grands modèles favorisent le développement de l’IA dans une direction plus générale.
Dans le même temps, la rareté et le coût de la puissance de calcul sont devenus des facteurs majeurs limitant le développement de l’IA. La puissance de calcul est également devenue une pierre angulaire importante de la transformation numérique et intelligente de l’ensemble de la société, entraînant ainsi une augmentation de la demande de puissance de calcul intelligente.
Selon les données fournies par Lisa Su, PDG d'AMD, le marché potentiel total des accélérateurs d'IA pour centres de données mondiaux atteindra environ 30 milliards de dollars américains en 2023, et ce chiffre devrait dépasser 150 milliards de dollars américains d'ici 2027 ((environ 1,095 billion de RMB), avec un taux de croissance annuel composé de plus de 50 %.
Manuvir Das, vice-président de l'informatique d'entreprise chez Nvidia, a fourni un autre ensemble de données montrant que le marché potentiel (TAM) de l'IA devrait atteindre 600 milliards de dollars. Parmi eux, les puces et les systèmes peuvent rapporter 300 milliards de dollars américains, les logiciels d'IA générative peuvent obtenir 150 milliards de dollars américains, et les 150 milliards de dollars américains restants proviendront des logiciels d'entreprise NVIDIA.
**De toute évidence, le marché des puces de puissance de calcul IA est un gros « gâteau ». **
Mais actuellement, NVIDIA occupe 82 % du marché mondial de l'accélération de l'IA dans les centres de données et monopolise le marché mondial de la formation à l'IA avec 95 % de part de marché, devenant ainsi le plus grand gagnant de cette ronde de mêlée à l'IA. Huang Renxun et sa société Nvidia gagnent beaucoup d'argent, avec une valeur marchande de plus de 1 000 milliards de dollars américains.
Dans le même temps, l'augmentation de la demande en puissance de calcul a directement rendu le GPU (unité de traitement graphique) NVIDIA « difficile à trouver ». Le nombre de cartes graphiques Nvidia A100 est devenu une norme pour mesurer la puissance de calcul d'une entreprise.
**En effet, si une entreprise souhaite développer un grand modèle généraliste, elle doit d'abord faire attention à deux points en termes de puissance de calcul : le nombre et le prix des cartes graphiques. **
**Parmi eux, en termes de nombre de cartes graphiques, **OpenAI utilise 10 000 à 30 000 GPU NVIDIA pour entraîner le modèle GPT-3.5. Selon le dernier rapport de TrendForce, s'il est calculé en fonction de la puissance de traitement des cartes graphiques NVIDIA A100, l'exécution de ChatGPT peut nécessiter l'utilisation de 30 000 cartes graphiques NVIDIA GPU. De plus, en termes de modèles open source, le modèle Llama est formé sur 2048 A100 de 80 Go, et la puissance de calcul totale de formation est proche de la puissance de calcul de 2000 PTOPS.
En termes de prix, le prix du H800 actuellement disponible en Chine a atteint 200 000/pièce, tandis que le prix du A100/A800 est passé à environ 150 000 et 100 000/pièce. En prenant comme exemple la puissance de calcul requise de 2000P, le GPU H800 a une puissance de calcul d'une seule carte de 2P et nécessite 1 000 cartes graphiques. Le prix estimé de la carte entière est de 200 millions de yuans; la puissance de calcul d'une seule carte A800 est d'environ 0,625P et la quantité requise est de 3 200 cartes graphiques. Le prix estimé de l'ensemble de la carte graphique est de 320 millions de yuans.
En plus d'acheter une carte graphique GPU, le serveur doit également prendre en compte la configuration et le calcul de l'ensemble de la machine, y compris le processeur, le stockage, les connexions de communication NV-Link, etc., ainsi que des facteurs tels que la consommation électrique, la location du site, et les coûts d’exploitation et d’entretien.
À l'heure actuelle, les serveurs A800 et H800 sont principalement des modèles à 8 cartes. Afin d'atteindre une puissance de calcul de 2 000 P, il est nécessaire de configurer 125 serveurs H800 à 8 cartes ou 400 serveurs A800 à 8 cartes, au prix de 300 millions de yuans. et 560 millions de yuans respectivement. De plus, comme le H800 prend également en charge PCIe 5.0, une nouvelle génération de processeurs et de mémoire, le prix doit être augmenté pour atteindre ses performances informatiques optimales.
Par conséquent, du point de vue de la formation sur de grands modèles, le coût total d'achat du H800 est inférieur à celui de l'A800, ce qui est plus rentable et inférieur au coût de construction d'un processeur. C'est ce que disait souvent le PDG de NVIDIA, Jen-Hsun Huang. récemment : « Plus vous achetez, plus c'est rentable. » et plus vous économisez. »
Bien sûr, peu importe si vous n’en avez vraiment pas les moyens. NVIDIA a également lancé judicieusement un service de location en ligne, le système informatique super AI DGX, ouvert aux entreprises via la location. Il est équipé de 8 GPU H100 ou A100, chaque nœud dispose de 640 Go de mémoire et le loyer mensuel est de 37 000 $ US. il n'est donc pas nécessaire de créer vos propres données. Le centre achète un grand nombre de cartes graphiques GPU. Ce type de méthode de location a une marge bénéficiaire brute élevée. Selon un rapport sur le service « Cloud Computing Power Leasing » de Microsoft, la marge bénéficiaire brute de cette entreprise atteint 42 %, ce qui en fait une nouvelle « vache à lait » pour Microsoft. .
Sur le marché intérieur, InBev Digital, SenseTime AIDC et plus de 11 autres fournisseurs de centres de calcul/cloud intelligents proposent également des services similaires. Pour les grands modèles, le prix global est inférieur de plus de 20 % au prix auto-construit.
**De plus, il y a du temps de formation pour les grands modèles. **Le nouveau GPU NVIDIA L40S de NVIDIA est plus efficace en formation que le modèle A800/H800. Un modèle avec 7 milliards de paramètres prend 17 heures pour fonctionner sur le HGX A800, tandis que le L40S est 1,3 fois plus rapide et peut être exécuté en seulement une demi-journée. Sans oublier qu'un modèle avec 175 milliards de paramètres peut être entraîné en un week-end avec le L40S. .
Il a été rapporté précédemment que Baidu, Bytedance, Tencent et Alibaba avaient passé des commandes de puces d'une valeur de 5 milliards de dollars à Nvidia. En ajoutant le nombre de cartes graphiques précédemment thésaurisées, le nombre total de cartes graphiques GPU Nvidia en Chine dépasse 100 milliards de yuans. L'organisme d'études de marché Counterpoint a publié un rapport indiquant que malgré le ralentissement cyclique de l'industrie des semi-conducteurs, des entreprises chinoises telles que Tencent et Baidu continuent d'acheter des puces Nvidia A800 en grande quantité.
**Ainsi, sur un marché aussi important qui pèse des milliers de milliards, ni les fabricants de puces ni les clients en aval ne veulent voir « NVIDIA » dominer. Par conséquent, AMD, Intel et les sociétés chinoises de puces GPU ont tenté de contester la domination de Nvidia sur le marché des puces IA. **
En termes de puces IA, lors du Consumer Electronics Show (CES) 2023 en janvier de cette année, Lisa Su, présidente-directrice générale d'AMD, a officiellement lancé le produit APU (processeur accéléré) de nouvelle génération, Instinct MI300, pour les centres de données, utilisant TSMC 5 nm + 6 nm combinés. Conception d'architecture Chiplet, CPU et GPU intégrés, avec 13 petites puces, avec un nombre de transistors jusqu'à 146 milliards, les performances de l'IA et les performances par watt sont 8 fois et 5 fois celles de la génération précédente MI250 (en utilisant le test de référence FP8 clairsemé), sera produit en série et fourni au second semestre 2023.
Puis, en juin, AMD a également annoncé de nouvelles puces d'accélération de l'IA Instinct MI300X, Instinct MI300A et d'autres produits spécialement conçus pour l'IA générative avec 153 milliards de transistors, qui se sont améliorés en termes de capacité de stockage et de bande passante d'interconnexion. la mémoire à large bande passante est 2,4 fois supérieure à celle du H100. Un grand modèle comportant 80 milliards de paramètres peut être exécuté sur une seule puce et devrait être expédié avant la fin de cette année.
Cela démontre non seulement pleinement les capacités technologiques d'IA des centres de données après l'acquisition de Xilinx, mais remet également en question la domination de Nvidia sur les puces informatiques d'IA.
Bien sûr, il ne s’agit pas uniquement de GPU et de puces IA. Ce qu’AMD fait le mieux, c’est de fabriquer des puces CPU (unité centrale de traitement). Après tout, les centres de données ont besoin de la puissance de calcul générale des CPU. En novembre de l'année dernière, AMD a lancé la série EPYC 9004 de centre de données de quatrième génération utilisant l'architecture Zen 4, nommée "Genoa". Non seulement l'architecture a été mise à niveau, mais Su Zifeng a également empilé les matériaux sur cette puce à l'extrême : processus TSMC 5 nm , 96 cœurs, 192 threads, 384 Mo de cache L3 et prend en charge PCle5.0.
Par rapport aux processeurs Intel à huit cœurs, les séries de processeurs pour centres de données et Edge Computing d'AMD se sont considérablement améliorées en termes de consommation d'énergie et de performances, notamment une réduction de 40 % de la surface de la puce Genoa et une amélioration de 48 % de l'efficacité énergétique.
En septembre de cette année, AMD a lancé la dernière série EPYC 8004 de quatrième génération, introduisant le cœur « Zen 4c » dans les processeurs dédiés, fournissant des services allant des périphéries intelligentes (comme la vente au détail, la fabrication et les télécommunications) aux centres de données, au cloud computing et autres. des champs.
En fait, Amazon Cloud AWS a publié une instance de calcul générale basée sur le Genoa M7A. Les résultats finaux ont montré que les performances ont été améliorées de 50 % par rapport à la génération précédente. Par rapport à la version Intel Xeon Platinum Edition 8490H de quatrième génération, les performances de Genoa dans plusieurs scénarios d'application L'amélioration est de 1,7 à 1,9 fois et l'efficacité énergétique globale est améliorée de 1,8 fois.Il est entièrement utilisé dans les domaines du calcul haute performance tels que la modélisation financière, la simulation météorologique et la recherche et le développement de médicaments. De plus, dans la charge de travail de la passerelle IoT Edge, le dernier serveur à huit cœurs alimenté par EPYC 8024P fournit également environ 1,8 fois la performance de débit totale par rack de 8 kW.
Dans l'ensemble, qu'il s'agisse d'un CPU, d'un GPU, d'un FPGA, d'un processeur de centre de données DPU ou d'un outil de pile logicielle du système AMD ROCm, AMD est prêt et « affûte son épée » pour défier les produits de Nvidia.
**En tant que géant des puces établi depuis plus de 60 ans, Intel ne veut pas « céder le marché à d'autres ». **
Le 11 juillet de cette année, le géant des puces Intel Corporation (Intel) a lancé la puce d'IA Habana Gaudi2 pour le marché chinois à Pékin, en utilisant un processus de 7 nm. Elle peut exécuter de grands modèles de langage, accélérer la formation et l'inférence de l'IA et a une performance par watt d'environ 100 % lors de l'exécution de ResNet-50. Il est 2 fois supérieur à celui du NVIDIA A100 et son rapport prix/performance est 40 % supérieur à celui des solutions basées sur NVIDIA dans le cloud AWS. Il devrait surpasser le dernier H100 de NVIDIA en prix/performance en septembre de cette année.
Sandra Rivera, vice-présidente exécutive d'Intel, a déclaré à TMTpost en juillet de cette année qu'il était impossible pour une seule entreprise de dominer le marché des puces d'IA. Parce que le marché a besoin de diversité et que les clients souhaitent également voir davantage d’entreprises de puces jouer un rôle de leader dans le domaine de l’IA.
En septembre, lors de la conférence sur l'innovation technologique Intel On qui s'est tenue à San Jose, aux États-Unis, Gelsinger a annoncé que la puce IA Gaudi 3 utilisant le processus 5 nm serait lancée l'année prochaine. D'ici là, sa puissance de calcul sera le double de celle de Gaudi 2. , et sa bande passante réseau, HBM La capacité sera de 1,5 fois.
Dans le même temps, Gelsinger a également présenté en avant-première le processeur de serveur évolutif Intel Xeon de cinquième génération, affirmant que le Xeon de nouvelle génération comportera 288 cœurs, ce qui devrait augmenter la densité du rack de 2,5 fois et les performances par watt de 2,4 fois. En outre, Intel a également lancé Sierra Forest et Granite Rapids, qui devraient multiplier par 2 à 3 les performances de l'IA par rapport au Xeon de quatrième génération.
Zhou Jingren, directeur de la technologie d'Alibaba Cloud, a déclaré qu'Alibaba utilise des processeurs Intel Xeon de quatrième génération pour son IA générative et ses grands modèles de langage, à savoir le « Alibaba Cloud Tongyi Qianwen Large Model », et que la technologie Intel a considérablement réduit le temps de réponse du modèle, la moyenne l'accélération peut atteindre 3 fois.
De plus, pour la formation sur de grands modèles d'IA, ce qui est plus important, c'est l'écosystème logiciel. Intel a annoncé sa coopération avec Arm pour déployer ses produits Xeon sur le processeur Arm, et a également lancé la suite d'outils d'exécution d'inférence et de déploiement d'IA OpenVINO, qui non seulement prend en charge les modèles pré-entraînés, mais ne doit également être écrite qu'une seule fois pour déployer n'importe quel modèle. Prise en charge multiplateforme clé disponible, le modèle Llama 2 de Meta a été pris en charge.
Dans le même temps, la Fondation Linux a également annoncé cette semaine la création de la Fondation Unified Acceleration (UXL) pour fournir un modèle de programmation d'accélérateur standard ouvert afin de simplifier le développement d'applications multiplateformes hautes performances. évolution du programme Intel oneAPI. Les membres fondateurs incluent Arm, Google Cloud, Intel, Qualcomm, Samsung et d’autres – Nvidia n’en fait pas partie.
Wang Rui, vice-président senior d'Intel Corporation et président d'Intel Chine, a déclaré à TMTpost App et à d'autres qu'Intel lancerait à l'avenir un processeur doté de 288 cœurs. Il y aura de plus en plus de centres de données à l'avenir. Intel lancera des produits tels que Gaudi3 et Falcon Shores. La matrice de produits constituera une feuille de route pour le futur développement des accélérateurs et de l'informatique IA.
"Nous avons intégré des capacités d'IA dans la puce. Selon les différents besoins, les capacités d'IA intégrées utiliseront différentes puissances de calcul et différentes architectures pour fournir un support. " Wang Rui a déclaré qu'en termes de centres de données, du client à la périphérie. Jusqu'au cloud, l'IA a pénétré divers scénarios d'application : de la formation de modèles de langage à grande échelle à la formation de modèles de langage inclusifs à petite échelle, l'influence de l'IA est partout.
Fin août de cette année, Kissinger a déclaré qu'il pensait qu'Intel était en train d'atteindre ses objectifs ambitieux de restructuration et de restaurer sa position de leader dans l'industrie. En parlant de Nvidia, Gelsinger a admis que Nvidia avait une bonne configuration et pouvait capter la demande de systèmes nécessaires pour prendre en charge l'expansion des logiciels d'IA, mais il a déclaré qu'Intel commencerait bientôt à remporter des commandes sur ces marchés de puces accélératrices.
"Ils ont fait un excellent travail et nous les félicitons tous. Mais nous sommes sur le point de montrer notre force", a déclaré Kissinger.
La valeur marchande de Nvidia s'est évaporée de centaines de milliards de dollars. Les puces nationales peuvent-elles saisir l'opportunité ?
Les brillantes performances de Nvidia en 2023 semblent s'être affaiblies au cours des deux derniers mois.
Selon les données de Refinitiv, bien que le cours de l'action de Nvidia ait augmenté d'environ 190 % cette année et que ses performances soient très impressionnantes, son cours de bourse a mal performé en septembre : depuis le 31 août, le cours de l'action de Nvidia a chuté de plus de 10 % et son la valeur marchande totale s'est évaporée : plus de 176 milliards de dollars.
**En fait, de nombreux facteurs contribuent à la baisse du cours de l'action Nvidia. **
Premièrement, les inquiétudes du marché concernant le maintien plus long des taux d'intérêt à des niveaux plus élevés par la Réserve fédérale afin de freiner l'inflation se sont intensifiées. L'ensemble du marché boursier a été sous pression, l'indice S&P 500 ayant baissé en moyenne de 0,7 % en septembre. et près de 4% jusqu'à présent.
**Deuxièmement, **les modèles open source représentés par LIama 2 ont été publiés les uns après les autres, et de plus en plus d'entreprises ont commencé à utiliser ces modèles directement, ne nécessitant que l'application de puces d'inférence IA, ce qui a entraîné une réduction de la demande de calcul. puces d'entraînement de puissance.
Enfin, selon The Information, NVIDIA accorde une attention particulière à la fourniture de cartes graphiques à certaines petites et moyennes entreprises de cloud computing aux États-Unis. Dans la situation actuelle de « difficulté à trouver une carte ». , NVIDIA est très préoccupé par la fourniture de cartes graphiques aux grandes entreprises telles que Google et Meta, ainsi qu'aux entreprises chinoises. Les services de suivi et la fourniture de cartes graphiques ne semblent plus être la priorité absolue, ce qui conduit directement au marché. des doutes sur les capacités d'approvisionnement en produits de Nvidia.
Bien entendu, malgré ses défauts, NVIDIA dispose d’un énorme avantage en tant que premier arrivé sur le marché de la puissance de calcul de l’IA. En plus des performances de pointe de sa puce GPU, son énorme écosystème logiciel d’IA CUDA est hors de portée de nombreuses personnes. De plus, la technologie d'interconnexion GPU haute vitesse NVLink de NVIDIA est également devenue une « arme magique clé » pour l'amélioration de la technologie des grands modèles, et son rôle est bien supérieur à celui de la carte GPU elle-même.
Le fondateur et PDG de Baichuan Intelligence, Wang Xiaochuan, a mentionné un jour que dans ce secteur, les coûts de puissance de calcul des GPU représentent environ 40 à 70 % et que le rapport entre les coûts de connexion réseau et les coûts des cartes graphiques GPU est d'environ 3 : 1.
"Si nous évoluons vers des modèles plus élevés à l'avenir, la réserve de puissance de calcul est très critique. Du point de vue de la formation et du raisonnement, le raisonnement nécessite des puces d'IA nationales, pas seulement NVIDIA, mais la formation n'est actuellement effectuée que par NVIDIA. Ce "calcul" "Nous devons lutter dur, les puces d'IA nationales de la Chine doivent être capables de rivaliser", a déclaré Wang Xiaochuan.
**En fait, en plus des deux principaux géants des puces, avec la « guerre nationale des 100 modes », la demande de puissance de calcul de l'IA a augmenté. Cependant, de nombreuses puces d'IA telles que Nvidia AI00/H100 ont restreint les exportations vers la Chine, ce qui rend de plus en plus difficile pour les entreprises nationales d'obtenir des puces haut de gamme en provenance des États-Unis. **
En octobre 2022, le Bureau de l'industrie et de la sécurité (BIS) du ministère américain du Commerce a publié de nouvelles réglementations de contrôle des exportations pour quantifier diverses puissances de calcul, bande passante, processus de fabrication et autres indicateurs des puces, et restreindre les exportations des entreprises américaines vers la Chine, notamment restrictions sur les puces à haute puissance de calcul, ayant un impact direct sur le développement de l'IA, du supercalcul, des centres de données et d'autres industries connexes en Chine. NVIDIA, un fabricant de GPU (processeurs graphiques) qui répond principalement aux besoins de l'IA et d'autres applications, a reçu en août une notification du gouvernement américain lui demandant de restreindre l'exportation de puces avancées.
Nvidia a réagi rapidement et a mis en production la puce A800 au troisième trimestre 2022 pour remplacer l'A100 qui ne peut plus être expédiée en Chine. Il s'agit également du premier produit « offre spéciale » lancé par une société américaine à cet effet. Nvidia n'a pas annoncé les paramètres détaillés de l'A800, mais le manuel produit fourni par ses revendeurs montre que la puissance de calcul maximale de l'A800 est conforme à celle de l'A100, dont l'exportation est limitée, mais que le taux de transmission est limité aux deux tiers de celui de l'A800. l'A100 pour se conformer aux exigences gouvernementales américaines pertinentes. La puissance de calcul d'entraînement du dernier H800 « China Special Edition » est environ 40 % inférieure à celle du H100. Sans le module d'interconnexion fourni par NVIDIA, l'écart de puissance de calcul peut atteindre plus de 60 %.
Intel lancera une version chinoise de son produit Gaudi 2 en juillet 2023. Gaudi 2 est une puce ASIC (Application Specific Integrated Circuit) principalement conçue pour la formation en IA d'apprentissage profond haute performance. Par rapport à la version internationale annoncée en mai 2022, le nombre de ports Ethernet intégrés dans la version chinoise de Gaudi 2 a été réduit de 24 à 21. Intel avait déclaré à l'époque qu'il s'agissait d'un changement relativement mineur avec un impact limité sur les performances réelles. Kissinger a récemment déclaré que la société vendait actuellement la version chinoise de Gaudi 2 en Chine et qu'il espérait continuer à le faire à l'avenir.
** Ainsi, sous l'influence des restrictions étrangères sur les puces, les sociétés nationales de puissance de calcul de l'IA telles que Huawei, Tianshu Zhixin, Cambrian et Denglin Technology se déploient activement pour combler le poste vacant en matière de puissance de calcul de l'IA nationale. **
À l'heure actuelle, le marché national de la puissance de calcul de l'IA est principalement divisé en trois factions principales : l'une est la solution de puissance de calcul de l'écosystème Huawei Kunpeng et Ascend AI, qui n'implique pas la participation du GPU NVIDIA ; l'autre est la prise en charge de la puissance de calcul hybride, qui utilise un grand nombre de puces NVIDIA A100 et Dans certains environnements, AMD, Intel, Tianshu Intelligent Core, Cambrian, Haiguang et d'autres puces sont ajoutées pour prendre en charge la formation de grands modèles ; troisièmement, une puissance de cloud computing de serveur plus rentable est louée à combler le manque de puissance de calcul.
Lors du 19e sommet d'été du Forum des entrepreneurs chinois de Yabuli 2023, qui s'est tenu en août de cette année, Liu Qingfeng, fondateur et président d'iFlytek, a déclaré que les capacités techniques du GPU de Huawei étaient désormais équivalentes à celles du Nvidia A100 et qu'elles étaient désormais comparées à celles du Nvidia A100.
Le 20 septembre, Meng Wanzhou, vice-président, président tournant et directeur financier de Huawei, a déclaré que Huawei avait lancé le cluster informatique Ascend AI avec une nouvelle architecture capable de prendre en charge la formation de grands modèles avec plus de mille milliards de paramètres. Huawei continuera de bâtir une solide base de puissance de calcul.
Gai Lujiang, président-directeur général de Tianshu Zhixin, a révélé qu'à l'heure actuelle, de nombreuses sociétés nationales de modélisme à grande échelle ont commencé à utiliser des cartes graphiques GPU nationales et que la société a soutenu l'achèvement d'une formation de modèles à grande échelle avec 7 milliards de paramètres. De plus, la plupart des autres sociétés nationales de GPU sont en phase de formation à l'inférence IA.
Galujiang estime qu'en Chine, la part de marché de Nvidia dans le domaine de la formation atteint plus de 95 %, certains atteignant 99 %, et elle a pratiquement atteint un monopole, principalement en raison de son architecture matérielle et de son écosystème CUDA largement utilisé - il compte plus de 300 millions d’utilisateurs dans le monde. Actuellement, les sociétés nationales de GPU sont confrontées à des problèmes de migration écologique. En raison du grand nombre de codes basés sur CUDA, la transition vers un nouvel écosystème nécessitera beaucoup de temps et d'argent.
Lors d'une récente table ronde, Wang Ping, co-fondateur et architecte en chef de Denglin Technology, a mentionné que les clients d'AIGC ont non seulement besoin de solutions telles que la génération de texte et la génération d'images, mais, plus important encore, de produits pratiques. Par conséquent, il est nécessaire de mettre en œuvre des produits dotés d’une grande puissance de calcul et d’une forte polyvalence afin de créer de la valeur pour les clients. Il est rapporté que les produits de puces IA de nouvelle génération de Denglin Technology ont un avantage de consommation d'énergie plus de trois fois supérieur à celui des produits GPU à usage général grand public internationaux.
Galujiang a déclaré que pour Tianshu Zhixin, la prochaine étape consiste à optimiser l'itération du produit, ce qui nécessite de s'appuyer sur les données, les commentaires des clients et l'innovation technologique, et de procéder à des ajustements pour répondre aux besoins nationaux particuliers. Dans le même temps, l'entreprise améliorera activement l'écosystème et la pile logicielle pour garantir que les utilisateurs bénéficient de la meilleure expérience en termes d'efficacité, de coût, de performance et de rapport qualité-prix, afin de promouvoir la commercialisation ultérieure des produits.
Wang Ping estime qu'en raison de la difficulté accrue d'obtenir des puces haut de gamme en provenance des États-Unis, même si aucune entreprise nationale ne peut produire des puces capables de véritablement les remplacer, il estime que la puissance de calcul nationale continuera de croître. Les puces doivent être itérées en permanence. Plus il y a d'utilisateurs et plus il y a de commentaires sur les problèmes, plus les entreprises nationales de puces d'IA peuvent améliorer et améliorer l'expérience utilisateur dans les itérations ultérieures.
"Il s'agit d'une opportunité majeure pour les sociétés nationales de GPU à usage général", a déclaré Galujiang à TMTpost Media App.