これは、ザイリンクス買収後のデータセンター AI テクノロジーの能力を十分に実証するだけでなく、AI コンピューティング チップにおける Nvidia の優位性に挑戦するものでもあります。
もちろん、GPU や AI チップだけではなく、AMD が最も得意とするのは CPU (中央演算処理装置) チップの製造であり、結局のところ、データセンターには CPU の総合的な計算能力が必要です。昨年11月、AMDはZen 4アーキテクチャ(開発コード名「Genoa」)を使用した第4世代データセンターEPYC 9004シリーズをリリースしました。アーキテクチャをアップグレードしただけでなく、Su Zifeng氏はこのチップに極限まで材料を積み上げました:TSMC 5nmプロセス、96コア、192スレッド、384M L3キャッシュを備え、PCle5.0をサポートします。
最後に The Information によると、NVIDIA は米国の一部の中小規模のクラウド コンピューティング企業へのグラフィックス カードの供給に細心の注意を払っており、「カードが入手困難」な現状があるとのことです。 , NVIDIAは、GoogleやMetaなどの大企業や中国企業へのグラフィックスカードの供給に非常に懸念を抱いており、フォローアップサービスやグラフィックスカードの供給はもはや最優先事項ではないようで、これは市場に直結しているNvidiaの製品供給能力には疑問がある。
もちろん、欠陥があるにもかかわらず、NVIDIA は AI コンピューティング市場において大きな先行者利益を持っています。最先端の GPU チップのパフォーマンスに加えて、その巨大な AI ソフトウェア エコシステム CUDA は多くの人には手の届かないものです。さらに、NVIDIA の NVLink 高速 GPU インターコネクト テクノロジも、大型モデル テクノロジ向上のための「重要な魔法の武器」となっており、その役割は GPU カードそのものよりもはるかに重要です。
Baichuan Intelligence の創設者兼 CEO の Wang Xiaochuan 氏は、この業界では GPU コンピューティングの電力コストが約 40% ~ 70% を占め、ネットワーク接続コストと GPU グラフィックス カードのコストの比率は約 3:1 であると述べました。
ワン・ピン氏は、米国からハイエンドチップを入手することがますます困難になっているため、真にそれに代わるチップを製造できる国内企業は存在しないものの、国内のコンピューティングパワーは今後も成長し続けるだろうと信じている。チップは継続的に反復される必要があり、ユーザーが増え、問題のフィードバックが増えるほど、国内の AI チップ企業はその後の反復でより多くのユーザー エクスペリエンスを改善および強化できます。
「これは国内の汎用GPU企業にとって大きなチャンスだ」とGaljiang氏はTMTpost Media Appに語った。
中国と米国がエヌビディアを「包囲弾圧」、数兆ドル規模のAIチップ市場を独占するのは困難
著者: 林志佳
出典: TMTポストメディア
NvidiaはAI大型モデルコンピューティングパワーチップ市場を主導的に占めており、その市場価値は1兆を超えています。同時に、Intel、AMD、中国のGPUチップ企業も、AIコンピューティングパワーチップ市場のシェアを獲得しようと密かに競争している。
**9 月 19 日、米国サンノゼで開催されたインテル On テクノロジー イノベーション カンファレンスで、**62 歳のインテル CEO パット ゲルシンガー氏は「元気いっぱい」で腕立て伏せでスピーチを始めました。
この会議でゲルシンガー氏は、インテル 4 (5nm) プロセスをベースにしたインテル Core Ultra プロセッサー (開発コード名「Meteor Lake」)、第 5 世代 Xeon サーバー チップと後続の Xeon 製品ロードマップのプレビューなど、一連の新テクノロジー製品を一気に発表しました。 ; 5nm AIチップ Gaudi 3などを公開。
これまでのセッションと比べ、今回はキッシンジャー氏が「革を着た老人に変身」し、AIの計算能力が経済に果たす役割について2時間近く語った。 TMTpost Appの統計によると、キッシンジャー氏はこの演説の中で「人工知能」と「ディープラーニング」に関連する用語を約200回言及した。
ほぼ同時に、IntelとNvidiaの競合企業であるAMDは、最新のEPYC 8004 CPU(中央演算処理装置)チップをリリースし、Nvidiaと競合するために年末までにMI300シリーズのAIチップを出荷する予定だ。さらに、中国では、Huawei や Tianshu Zhixin などの AI チップ メーカーも、大規模モデルのトレーニング推論や AI コンピューティングのパワー製品を積極的に展開しています。
「私たちは、AI コンピューティング パワー チップの市場リーダーである NVIDIA と非常に熾烈な競争をしています。しかし、Gaudi2 と Gaudi3 はどちらもそれらよりも大きな進歩を遂げています。私たちは勢いを増しており、市場は AI のリーダーの間でそれを認識し始めています。チップ業界には別のチャンスがある」とキッシンジャー氏は9月20日にCNBCに語った。
市場競争が激化し、「Old Huang」が数兆の AI コンピューティングパワーを独占するのは困難
2023年から現在に至るまで、ChatGPTに代表されるAI大型モデルの「ブーム」が世界を席巻し、大型モデルはAIの発展をより一般的な方向に推し進めています。
同時に、コンピューティング能力の不足と高価さが、AI の開発を制限する中心的な要因となっています。また、コンピューティング能力は社会全体のデジタル化とインテリジェント化の重要な基盤となっており、インテリジェントなコンピューティング能力に対する需要が急増しています。
AMD CEO の Lisa Su 氏が提供したデータによると、世界のデータセンター AI アクセラレータの潜在的な市場総額は 2023 年に約 300 億米ドルに達し、この数字は 2027 年までに 1,500 億米ドル (約 1 兆 9,500 億人民元) を超えると予想されています。年間平均成長率は 50% 以上です。
Nvidia のエンタープライズ コンピューティング担当バイスプレジデントであるマヌビル ダス氏は、AI の潜在市場 (TAM) が 6,000 億米ドルに成長すると予想されることを示す別のデータを提供しました。このうち、チップとシステムは 3,000 億ドル、生成 AI ソフトウェアは 1,500 億ドル、残りの 1,500 億ドルは NVIDIA エンタープライズ ソフトウェアが出資する予定です。
**明らかに、AI コンピューティング パワー チップ市場は大きな「ケーキ」です。 **
しかし現在、NVIDIA は世界のデータセンター AI アクセラレーション市場の 82% を占め、世界の AI トレーニング市場では 95% の市場シェアを独占しており、今回の AI 混戦の最大の勝者となっています。 Huang Renxun と彼の Nvidia 会社は莫大な利益を上げており、その市場価値は 1 兆米ドルを超えています。
同時に、コンピューティング能力需要の急増は、NVIDIA GPU (グラフィックス プロセッシング ユニット) の「入手困難」を直接的に引き起こしました。 Nvidia A100 グラフィックス カードの数は、企業のコンピューティング能力を測定するための基準になっています。
**実際、企業が汎用の大型モデルを開発したい場合、まず計算能力の点でグラフィックス カードの数と価格の 2 つの点に注意を払う必要があります。 **
**そのうち、グラフィックス カードの数に関しては、**OpenAI は GPT-3.5 モデルのトレーニングに 10,000 ~ 30,000 個の NVIDIA GPU を使用します。 TrendForce の最新レポートによると、NVIDIA A100 グラフィックス カードの処理能力に基づいて計算すると、ChatGPT を実行するには 30,000 枚の NVIDIA GPU グラフィックス カードの使用が必要になる可能性があります。さらに、オープンソース モデルに関しては、Llama モデルは 2048 個の 80GB A100 でトレーニングされており、トレーニング全体のコンピューティング パワーは 2000 PTOPS コンピューティング パワーに近くなります。
価格面で現在、中国で販売されているH800の価格は20万/個に達しており、A100/A800の価格は15万/個、10万/個程度となっています。 2000Pの計算能力要件を例にとると、H800 GPUはシングルカードの計算能力が2Pで、1,000枚のグラフィックスカードが必要で、カード全体の推定価格は2億元、A800のシングルカードの計算能力は約0.625P、必要数量は 3,200 枚のグラフィックス カードで、グラフィックス カード全体の推定価格は最大 3 億 2,000 万元です。
サーバーは、GPU グラフィックス カードの購入に加えて、CPU、ストレージ、NV-Link 通信接続などを含むマシン全体の構成と計算、および消費電力、サイトのレンタル、電力消費などの要素も考慮する必要があります。そして運用保守コスト。
現在、A800 および H800 サーバーは 8 カード モデルが主流ですが、2000 P の計算能力を満たすには、8 カード H800 サーバーを 125 台、または 8 カード A800 サーバーを 400 台構成する必要があり、価格は 3 億元となります。それぞれ5.6億元、5.6億元。さらに、H800 は新世代の CPU とメモリである PCIe 5.0 もサポートしているため、最適なコンピューティング パフォーマンスを実現するには価格を上げる必要があります。
したがって、大規模モデルのトレーニングの観点から見ると、H800 を購入する総コストは A800 よりも低く、CPU の構築コストよりもコスト効率が高く、これは Nvidia CEO の Jen-Hsun Huang 氏がよく言っていたことです。最近: 「たくさん買えば買うほど、費用対効果が高くなります。」
もちろん、本当に買えなくても問題ありません。 NVIDIA はまた、リースを通じて企業に公開されているオンライン リース サービスである DGX スーパー AI コンピューティング システムも開始しました。H100 または A100 GPU を 8 基搭載し、各ノードに 640 GB のメモリを搭載し、月額レンタルは 37,000 ドルです。このセンターでは、大量の GPU グラフィックス カードを購入しています。このリース方式は粗利率が高く、マイクロソフト社の「クラウドコンピューティングパワーリース」サービスのレポートによれば、この事業の粗利率は42%にも達し、マイクロソフト社の新たな「ドル箱」となっている。 。
国内市場では、InBev Digital、SenseTime AIDC、その他 11 社以上のインテリジェント コンピューティング センター/クラウド ベンダーも同様のサービスを提供しており、大型モデルの場合、全体の価格は自社構築価格より 20% 以上低くなります。
**さらに、大規模なモデルのトレーニング時間があります。 **NVIDIA が新たにリリースした NVIDIA L40S GPU は、A800/H800 モデルよりもトレーニング効率が優れています。 70 億のパラメータを持つモデルは、HGX A800 で実行するのに 17 時間かかりますが、L40S は 1.3 倍高速で、わずか半日で実行できます。言うまでもなく、1,750 億のパラメータを持つモデルは、L40S を使用して週末にトレーニングできます。 。
以前、Baidu、Bytedance、Tencent、Alibaba が Nvidia に 50 億米ドル相当のチップを発注したと報じられており、これまでに買いだめされていたグラフィックス カードの数を加えると、中国における Nvidia GPU グラフィックス カードの総数は 1,000 億元を超えます。市場調査機関のカウンターポイントは、半導体業界の周期的不況にも関わらず、テンセントやバイドゥなどの中国企業が依然としてNvidia A800チップを大量に購入しているとの報告書を発表した。
**したがって、このような重要な兆レベルの市場では、チップ企業も下流顧客も「NVIDIA」が独占することを望んでいません。そのため、AMD、Intel、中国のGPUチップ企業は、AIチップ市場におけるNvidiaの優位性に挑戦しようとしている。 **
AIチップに関しては、今年1月の2023 Consumer Electronics Show(CES)で、AMD会長兼最高経営責任者(CEO)のLisa Su氏が、TSMC 5nm + 6nmを組み合わせたデータセンター向けの次世代APU(アクセラレーテッドプロセッサ)製品Instinct MI300を正式にリリースした。チップレット アーキテクチャ設計、統合された CPU と GPU、13 個の小型チップ、最大 1,460 億個のトランジスタを備え、AI パフォーマンスとワットあたりのパフォーマンスは前世代の MI250 の 8 倍と 5 倍です (スパース FP8 ベンチマーク テストを使用)。 2023年後半に量産・供給される予定だ。
その後6月には、AMDは新しいAIアクセラレーションチップInstinct MI300X、Instinct MI300A、および1,530億個のトランジスタを備えた生成AI用に特別に構築されたその他の製品も発表し、ストレージ容量と相互接続帯域幅の点で向上しました。MI300XはH100よりも多くのトランジスタを搭載しています。2回、 HBM3 高帯域幅メモリは H100 の 2.4 倍です。 800億個のパラメータを持つ大規模なモデルは単一チップ上で実行でき、今年末までに出荷される予定だ。
これは、ザイリンクス買収後のデータセンター AI テクノロジーの能力を十分に実証するだけでなく、AI コンピューティング チップにおける Nvidia の優位性に挑戦するものでもあります。
もちろん、GPU や AI チップだけではなく、AMD が最も得意とするのは CPU (中央演算処理装置) チップの製造であり、結局のところ、データセンターには CPU の総合的な計算能力が必要です。昨年11月、AMDはZen 4アーキテクチャ(開発コード名「Genoa」)を使用した第4世代データセンターEPYC 9004シリーズをリリースしました。アーキテクチャをアップグレードしただけでなく、Su Zifeng氏はこのチップに極限まで材料を積み上げました:TSMC 5nmプロセス、96コア、192スレッド、384M L3キャッシュを備え、PCle5.0をサポートします。
Intel の 8 コア プロセッサと比較して、AMD のデータセンターおよびエッジ コンピューティング CPU シリーズは、Genoa チップ面積が 40% 削減され、エネルギー効率が 48% 向上するなど、エネルギー消費とパフォーマンスの点で大幅に向上しています。
今年9月、AMDは最新の第4世代EPYC 8004シリーズを発売し、専用CPUに「Zen 4c」コアを導入し、インテリジェントエッジ(小売、製造、通信など)からデータセンター、クラウドコンピューティングなどに至るまでのサービスを提供した。田畑。
実際、Amazon Cloud AWS は Genoa M7A をベースにした汎用コンピューティング インスタンスをリリースしましたが、その最終結果では、前世代に比べてパフォーマンスが 50% 向上しており、Intel 第 4 世代 Xeon Platinum Edition 8490H バージョンと比較すると、Genoa のパフォーマンスは向上しました。複数のアプリケーションシナリオでの改善は1.7~1.9倍、全体的なエネルギー効率は1.8倍向上し、金融モデリング、気象シミュレーション、医薬品研究開発などのハイパフォーマンスコンピューティング分野で十分に使用されています。さらに、IoT Edge ゲートウェイのワークロードでは、最新の 8 コア EPYC 8024P 搭載サーバーも、8kW ラックあたり約 1.8 倍の合計スループット パフォーマンスを提供します。
全体として、CPU、GPU、FPGA、DPU データセンター プロセッサ、またはソフトウェア スタック ツール AMD ROCm システムのいずれであっても、AMD は Nvidia 製品に挑戦する準備ができており、「剣を研いで」います。
** 60 年以上設立されている半導体大手として、インテルは「市場を他社に譲渡」したくありません。 **
今年7月11日、半導体大手インテル・コーポレーション(インテル)は、7nmプロセスを使用したAIチップ「Habana Gaudi2」を中国市場向けに北京で発売した。 ResNet-50 実行時のワットあたりの消費電力は約 100%、NVIDIA A100 の 2 倍であり、価格性能比は AWS クラウドの NVIDIA ベースのソリューションよりも 40% 高いです。今年9月の価格/パフォーマンス。
インテルの執行副社長サンドラ・リベラ氏は今年7月、TMTpostに対し、一企業がAIチップ市場を独占することは不可能だと語った。なぜなら、市場は多様性を必要としており、顧客もより多くのチップ企業がAI分野で主導的な役割を果たすことを望んでいるからです。
ゲルシンガー氏は9月、米国サンノゼで開催された技術革新カンファレンス「Intel On」で、5nmプロセスを採用したAIチップ「Gaudi 3」を来年発売する予定で、その頃には計算能力がGaudi 2の2倍になると発表した。 、そのネットワーク帯域幅、HBM の容量は 1.5 倍になります。
同時にゲルシンガー氏は、第5世代Intel Xeonスケーラブルサーバープロセッサのプレビューも行い、次世代Xeonには288コアが搭載され、ラック密度が2.5倍、ワット当たりのパフォーマンスが2.4倍向上すると予想されていると述べた。さらにインテルは、第4世代Xeonと比べてAI性能が2~3倍向上すると期待されるSierra ForestとGranite Rapidsもリリースした。
Alibaba Cloud 最高技術責任者の Zhou Jingren 氏は、Alibaba は生成 AI および大規模言語モデル、つまり「Alibaba Cloud Tongyi Qianwen Large Model」に第 4 世代 Intel Xeon プロセッサを使用しており、Intel テクノロジーによりモデルの平均応答時間が大幅に短縮されたと述べました。加速は3倍に達する可能性があります。
さらに、AI の大規模モデルのトレーニングでは、より重要なのはソフトウェア エコシステムです。 Intelは、Arm CPU上に自社のXeon製品を展開するためにArmと協力することを発表し、AI推論および展開ランタイムツールスイートOpenVINOも発売した。これは、事前トレーニングされたモデルをサポートするだけでなく、任意のモデルを展開するために一度記述するだけで済む。利用可能な主要なクロスプラットフォーム サポート、Meta の Llama 2 モデルがサポートされました。
同時に、Linux Foundation は今週、高性能のクロスプラットフォーム アプリケーションの開発を簡素化するためのオープン標準アクセラレータ プログラミング モデルを提供する Unified Acceleration (UXL) Foundation の設立も発表しました。 Intel oneAPI プログラムの進化。創設メンバーには Arm 、Google Cloud、Intel、Qualcomm、Samsung などが含まれますが、その中には Nvidia は含まれていません。
Intel Corporationの上級副社長でIntel China会長のWang Rui氏はTMTpost Appなどに対し、Intelは将来288コアのプロセッサをリリースする予定だと語った。将来的にはデータセンターがますます増え、インテルは Gaudi3 や Falcon Shores などの製品を発売する予定であり、その製品マトリックスは将来のアクセラレーターと AI コンピューティング開発のロードマップを形成することになります。
「私たちはAI機能をチップに組み込んでいます。さまざまなニーズに応じて、内蔵のAI機能はさまざまなコンピューティング能力とさまざまなアーキテクチャを使用してサポートを提供します。」とWang Rui氏はデータセンターの観点から、クライアントからエッジまで述べた。クラウドに至るまで、AI はさまざまなアプリケーション シナリオに浸透しており、大規模な言語モデルのトレーニングから小規模で包括的な言語モデルのトレーニングに至るまで、AI の影響はあらゆる場所にあります。
キッシンジャー氏は今年8月末、インテルが野心的な再建目標の達成と業界での主導的地位の回復に向けて前進していると確信していると述べた。 Nvidiaについて話すとき、ゲルシンガー氏は、Nvidiaが優れたレイアウトを持っており、AIソフトウェアの拡張をサポートするために必要なシステムの需要を取り込むことができることを認めたが、Intelは間もなくこれらのアクセラレータチップ市場で受注を獲得し始めるだろうと述べた。
キッシンジャー氏は「彼らは素晴らしい仕事をした。われわれは皆、彼らを称賛している。しかし、われわれはこれから自分たちの強さを示そうとしている」と語った。
Nvidia の市場価値は数千億ドル蒸発しましたが、国産チップはチャンスを掴めるでしょうか?
2023 年の Nvidia の輝かしい業績は、過去 2 か月で衰えたようです。
Refinitiv のデータによると、NVIDIA の株価は今年約 190% 上昇し、その業績は非常に目覚ましいものですが、9 月の株価のパフォーマンスは低調でした。8 月 31 日以降、NVIDIA の株価は 10% 以上下落し、市場価値の総額は 1,760 億ドル以上蒸発しました。
**実際、NVIDIA の株価下落には多くの要因があります。 **
第一に、インフレ抑制のために連邦準備理事会が金利を長期間にわたり高水準に維持することに対する市場の懸念が強まり、株式市場全体が圧力にさらされており、9月のS&P 500指数は平均0.7%下落した。そしてこれまでのところ4%近くです。
**第二に、**LIama 2に代表されるオープンソースモデルが次々とリリースされ、AI推論チップのみを適用するだけでこれらのモデルを直接利用する企業が増え、コンピューティング需要の減少につながっています。パワートレーニングチップ。
最後に The Information によると、NVIDIA は米国の一部の中小規模のクラウド コンピューティング企業へのグラフィックス カードの供給に細心の注意を払っており、「カードが入手困難」な現状があるとのことです。 , NVIDIAは、GoogleやMetaなどの大企業や中国企業へのグラフィックスカードの供給に非常に懸念を抱いており、フォローアップサービスやグラフィックスカードの供給はもはや最優先事項ではないようで、これは市場に直結しているNvidiaの製品供給能力には疑問がある。
もちろん、欠陥があるにもかかわらず、NVIDIA は AI コンピューティング市場において大きな先行者利益を持っています。最先端の GPU チップのパフォーマンスに加えて、その巨大な AI ソフトウェア エコシステム CUDA は多くの人には手の届かないものです。さらに、NVIDIA の NVLink 高速 GPU インターコネクト テクノロジも、大型モデル テクノロジ向上のための「重要な魔法の武器」となっており、その役割は GPU カードそのものよりもはるかに重要です。
Baichuan Intelligence の創設者兼 CEO の Wang Xiaochuan 氏は、この業界では GPU コンピューティングの電力コストが約 40% ~ 70% を占め、ネットワーク接続コストと GPU グラフィックス カードのコストの比率は約 3:1 であると述べました。
「将来的に上位モデルに向けて開発する場合、計算能力の余力は非常に重要です。トレーニングと推論の観点から見ると、推論にはNVIDIAだけでなく国産のAIチップが必要ですが、トレーニングは現時点ではNVIDIAのみが最もよく行っています。この「計算」は、懸命に戦えば、中国国産のAIチップも競争できなければならない」と王暁春氏は語った。
**実際、チップ大手2社に加え、国内の「100モード戦争」によりAIコンピューティング能力の需要が急増しているが、Nvidia AI00/H100など多くのAIチップは中国への輸出が制限されており、国内企業が米国からハイエンドチップを入手することがますます困難になっている。 **
2022年10月、米国商務省傘下の産業安全保障局(BIS)は、さまざまなチップのコンピューティング能力、帯域幅、製造プロセス、その他の指標を定量化し、米国企業の中国への輸出を制限する新たな輸出管理規制を発行した。これは、中国の AI、スーパーコンピューティング、データセンター、その他の関連産業の発展に直接影響を与えます。主にAIなどのニーズに応えるGPU(グラフィックスプロセッサ)メーカーのエヌビディアは8月、米国政府から先端チップの輸出を制限する通告を受けた。
Nvidiaはすぐに対応し、中国に出荷できなくなったA100に代わるA800チップを2022年の第3四半期に生産開始した。これは、アメリカの企業がこの目的のために発売した最初の「特別オファー」製品でもあります。 Nvidia は A800 の詳細なパラメータを発表していませんが、販売店が提供する製品マニュアルによると、A800 のピーク演算能力は輸出が制限されている A100 と一致していますが、伝送速度は 3 分の 2 に制限されています。 A100 は米国関連政府の要件に準拠する必要があります。最新の「中国特別版」H800 のトレーニング演算能力は H100 に比べて約 40% 劣っており、NVIDIA が提供する相互接続モジュールがなければ、演算能力の差は 60% 以上に達する可能性があります。
インテルは、Gaudi 2 製品の中国語版を 2023 年 7 月に発売する予定です。 Gaudi 2 は、主に高性能ディープラーニング AI トレーニング用に設計された ASIC (Application Specific Integrated Circuit) チップです。 2022 年 5 月に発表された国際バージョンと比較して、Gaudi 2 の中国版の統合イーサネット ポートの数は 24 から 21 に減少しています。 Intelは当時、これは比較的小規模な変更であり、実際のパフォーマンスへの影響は限定的であると述べた。キッシンジャー氏は最近、同社は現在中国で「ガウディ2」の中国版を販売しており、今後も販売を継続したいと述べた。
**そのため、外国チップの制限の影響を受けて、Huawei、Tianshu Zhixin、Cambrian、Denglin Technology などの国内の AI コンピューティング電力会社は、国内の AI コンピューティング電力の空席を埋めるために積極的に展開しています。 **
現在、国内の AI コンピューティングパワー市場は主に 3 つの主要な派閥に分かれています: 1 つは、NVIDIA GPU の参加を含まない Huawei Kunpeng と Ascend AI エコシステムのコンピューティングパワーソリューション、もう 1 つはハイブリッドコンピューティングパワーサポートです。は、多数の NVIDIA A100 チップを使用しており、一部の環境では、大規模モデルのトレーニングをサポートするために AMD、Intel、Tianshu Intelligent Core、Cambrian、Haiguang などのチップが追加されています。3 番目に、よりコスト効率の高いサーバー クラウド コンピューティング能力がレンタルされています。不足する計算能力を補います。
今年8月に開催された2023 Yabuli China Entrepreneurs Forumの第19回サマーサミットで、iFlytekの創設者兼会長であるLiu Qingfeng氏は、ファーウェイのGPU技術能力は現在Nvidia A100と同等であり、現在はNvidia A100に対してベンチマークを行っていると述べた。
9月20日、ファーウェイの副会長兼輪番会長兼最高財務責任者(CFO)の孟晩舟氏は、ファーウェイが1兆を超えるパラメータを持つ大規模モデルのトレーニングをサポートできる新しいアーキテクチャを備えたAscend AIコンピューティングクラスターを発売したと述べた。ファーウェイは今後も強固なコンピューティング能力の基盤を構築していきます。
Tianshu Zhixin の会長兼 CEO である Gai Lujiang 氏は、現在、多くの国内大規模モデル会社が国産 GPU グラフィックス カードを使用し始めており、同社は 70 億パラメータの大規模モデル トレーニングの完了をサポートしていることを明らかにしました。さらに、他の国内 GPU 企業のほとんどは AI 推論トレーニング段階にあります。
Galjiang 氏は、中国における Nvidia のトレーニング分野での市場シェアは 95% 以上と高く、中には 99% に達するものもあり、基本的に独占を達成していると考えています。これは主にそのハードウェア アーキテクチャと広く使用されている CUDA エコシステムによるものです。世界中で 3 億人以上のユーザーがいます。現在、国内のGPU企業は環境移行の問題に直面しており、CUDAベースのコードが多いため、新しいエコシステムへの切り替えには多大な時間とコストがかかる。
最近のラウンドテーブル イベントで、Denglin Technology の共同創設者兼チーフ アーキテクトである Wang Ping 氏は、AIGC の顧客にとって、テキスト生成や画像生成などのソリューションだけでなく、より重要なことに実用的な製品も必要であると述べました。したがって、顧客に価値を生み出すためには、大きなコンピューティング能力と高い汎用性を備えたコンピューティングパワー製品を実装する必要があります。 Denglin Technology の新世代 AI チップ製品は、国際的に主流の汎用 GPU 製品と比べて、エネルギー消費において 3 倍以上の利点があると報告されています。
Galjiang 氏は、Tianshu Zhixin にとって次のステップは製品の反復を最適化することであり、これにはデータ、顧客からのフィードバック、技術革新に依存し、国内の特別なニーズを満たすために調整を行う必要があると述べました。同時に同社は、エコシステムとソフトウェアスタックを積極的に改善し、効率、コスト、パフォーマンス、価格性能比の点でユーザーが最高のエクスペリエンスを確実に得られるようにし、製品のさらなる商業化を推進していきます。
ワン・ピン氏は、米国からハイエンドチップを入手することがますます困難になっているため、真にそれに代わるチップを製造できる国内企業は存在しないものの、国内のコンピューティングパワーは今後も成長し続けるだろうと信じている。チップは継続的に反復される必要があり、ユーザーが増え、問題のフィードバックが増えるほど、国内の AI チップ企業はその後の反復でより多くのユーザー エクスペリエンスを改善および強化できます。
「これは国内の汎用GPU企業にとって大きなチャンスだ」とGaljiang氏はTMTpost Media Appに語った。