生成型AIが世界を席巻している今、この革新の核心を駆動しているのは、高速計算の人工知能チップです。過去10年以上にわたり、NVIDIAはGPUでAI産業革命の種を作り、現在Blackwell GPUは最先端のAIトレーニングと推論のために設計されており、世界のデータセンターの標準設備となっています。昨年の出貨量は600万個に達しました。大型サーバーラックでは、72個のGPUをNVLink技術を介して単一の巨大GPUの計算ユニットのように集約できます。今日、AIチップ市場はもはやNVIDIA GPUの独占舞台ではなく、カスタマイズされたASICやFPGAが大手テクノロジー企業に採用されています。これらのAIチップの違いは何でしょうか?今後、AIの発展にどのように影響し、ひいてはNVIDIAの独占的地位を揺るがす可能性があるのでしょうか?この記事はCNBCの動画の重要ポイントを抜粋したものです。
GPU: AI の黄金時代の始まり
GPUはゲームカードからAIコアへと飛躍し、2012年のAlexNetに遡ります。研究チームは初めてNVIDIA GPUの並列計算能力を神経ネットワークのトレーニングに使用し、画像認識コンペティションで他の競合に大きく先んじることに成功し、深層学習時代の幕開けを告げました。
GPUのコアな利点は、その数千の並列処理コアから来ており、行列乗算などのテンソル演算を効率的に実行でき、AIのトレーニングや推論に適しています。現在、NVIDIAはOpenAIや各国政府、企業にGPUを供給するだけでなく、サーバーシステム全体を直接構築しています。単一ラックのBlackwellサーバーは300万ドルの価格が付けられており、NVIDIAは毎週1000台の出貨を行っていると明らかにし、AIコンピューティングの需要の狂熱を示しています。NVIDIAの競合であるAMDは、Instinct GPUとオープンソースソフトウェアエコシステムを利用して進展を加速しており、最近ではOpenAIやOracleの支援を受け、AIインフラ市場の重要な推進者となっています。AMD GPUの違いは主にオープンソースソフトウェアを使用しているのに対し、NVIDIA GPUはCUDAを中心に最適化されています。CUDAはNVIDIAの独自ソフトウェアプラットフォームです。
特定の用途のために設計されたASICが新たなトレンドとなる
Google、アマゾン、Meta、マイクロソフトからOpenAIやブロードコムまで、各大手クラウド企業がカスタマイズされたASIC(アプリケーション固有集積回路)の研究開発に乗り出しています。これらの単一用途向けに設計されたチップは、今後数年間で最も成長が期待されるAIチップのカテゴリになると予測されています。
大規模言語モデルが成熟期を迎える中、推論の需要は急速に訓練を超えています。推論のコスト、エネルギー消費、安定性はクラウドプラットフォームの痛点となっており、これがASICの主戦場です。汎用のGPUとは異なり、ASICは「専用の超精密ツール」として、特定のタイプのAIワークロードに対してハードコーディングされた最適化を行います。そのため、速度が速く、消費電力も低くなります。欠点は柔軟性が低く、開発のハードルが非常に高いことです。カスタムチップの設計コストは数十億ドルに達することがあるため、クラウドの巨頭だけが負担できるのです。
AI用のカスタマイズASICはコストが高く、非常に高価で、少なくとも数千から数億ドルが必要です。しかし、カスタマイズASICを負担できない大規模なクラウドサービスプロバイダーにとって、カスタマイズAS6は高いエネルギー効率を提供し、NVIDIAへの依存を減らすため、リターンをもたらすことができます。
博通のASICがAI市場シェアに強く挑戦する
ブロードコムとマーベルなどの半導体ファウンドリ設計会社は、超大型クラウド企業の核心的な戦略的パートナーです。Google TPU、Metaの自社開発アアクセラレーター、そしてOpenAIのまもなく登場するASICは、すべてブロードコムが深く関与しています。ブロードコムはGoogleのTPUとMetaのAI推論トレーニングの構築を支援しており、アナリストはブロードコムがカスタマイズされたASIC市場でのシェアを70%から80%に達すると予測しています。
FPGA:ASICとGPUの柔軟な選択
FPGAは、デバイス側でエッジAIをサポートするためのチップであり、クラウド側ではありません。FPGAの最大の利点は「再構成可能」であることです。企業がハードウェアがまだ決まっていない段階でアーキテクチャをテストする必要があるとき、FPGAはGPUの汎用性とASICの高性能の間の選択肢を提供します。ASICほどの性能はありませんが、その柔軟性によりデータセンターや組み込みデバイスに依然として好まれています。AMD(Xilinxを買収)とインテル(Alteraを買収)は、FPGA市場の2大勢力です。
グーグルTPU
GoogleはASICの最初の大手プレーヤーであり、人工知能の加速のために特注の専用集積回路(ASIC)を最初に開発しました。そして、2015年に初のASICが登場した際に、Tensor Processing Unit(テンソル処理装置、TPU)という用語を生み出しました。TPUはまた、Googleが2017年にTransformerアーキテクチャを発明するのを促進し、ChatGPTやClaudeなどのAIの共通基盤となりました。現在、Googleは第7世代TPU Ironwoodまで進化しており、Anthropologieが数百万のTPUを使用してClaudeシリーズモデルを訓練するのを支援しています。外部では、TPUが特定の状況下でNVIDIAのGPUを超えることさえあると噂されていますが、Googleは伝統的に自社使用のみであるため、TPUの真の潜在能力はまだ完全には発揮されていません。
AWS Tranium:クラウド推論マトリックス
AWSはAnnapurna Labsを買収した後、自社のAIチップに全力を投入しています。TraniumとInferentiaはAWSのトレーニングと推論プラットフォームの重要な柱となりました。Traniumは大量の小型テンソルエンジンで構成されており、高度に柔軟で、AWSによれば、コストパフォーマンスはクラウド内の他のハードウェアに対して30%から40%高いとのことです。2024年、AnthropicはAWS北インディアナデータセンターで50万個のTranium 2を使用してモデルをトレーニングしましたが、その際には完全にNVIDIAのGPUを使用していないことがわかります。ASICの地位が高まっていることが見て取れます。
NPU(神経ネットワークプロセッサー):携帯電話、コンピュータ、自動車用デバイスのエッジAIチップ
データセンターに加えて、AIチップは個人デバイスにも拡張されています。NPU(ニューラルネットワークプロセッサー)は、クラウドではなくデバイス上でエッジAIを実行するために特別に設計されたチップであり、個人のプライバシーを保護することができます。現在、Qualcomm Snapdragon、AMD、インテル、AppleのMシリーズSoCに統合されており、スマートフォン、ノートパソコン、スマートホーム、自動車、さらにはロボットに使用されています。デバイス側のAIは、より高いプライバシー保護、低遅延、より強力な制御をもたらし、次の波のAI普及の重要な推進力となります。
TSMCはチップ争奪戦の中心となっています。
NVIDIAのBlackwell、Google TPU、またはAWS Traniumなど、ほとんどのAIチップは最終的にTSMCによって製造されます。これにより、AIコンピューティング能力の供給は世界的な地政学と密接に結びついています。アメリカは、TSMCのアリゾナ工場とインテルの18Aプロセスを通じて、一部のチップ製造能力を国内に戻そうとしています。しかし、中国企業のHuaweiやAlibabaも、自社のASICを積極的に開発し、輸出規制の下で国内代替案を模索しています。
AI チップの群雄時代が到来
NVIDIA GPUの強力な独占、あるいはGoogle、AWS、Meta、OpenAIなどの企業のASIC競争とNPUがエッジAIをすべてのスマートフォンや自動車に推進している中、チップ戦争は依然として加速しています。NVIDIAの地位を揺るがすことは容易ではありませんが、AI市場の規模は巨大で、新しいプレーヤーが次々と参入しており、今後10年間のチップの地図は必ずより激しくなるでしょう。
この記事 Huida GPUとGoogleの技術的な違い、Amazon AWSの自社開発AIチップ、および将来の市場動向は、Chain News ABMediaに最初に掲載されました。
96.31K 人気度
42.95K 人気度
72.36K 人気度
111.45K 人気度
34.8K 人気度
Huida GPUとGoogle、Amazon、AWSの自社開発AIチップとの技術的な違いと将来の市場動向
生成型AIが世界を席巻している今、この革新の核心を駆動しているのは、高速計算の人工知能チップです。過去10年以上にわたり、NVIDIAはGPUでAI産業革命の種を作り、現在Blackwell GPUは最先端のAIトレーニングと推論のために設計されており、世界のデータセンターの標準設備となっています。昨年の出貨量は600万個に達しました。大型サーバーラックでは、72個のGPUをNVLink技術を介して単一の巨大GPUの計算ユニットのように集約できます。今日、AIチップ市場はもはやNVIDIA GPUの独占舞台ではなく、カスタマイズされたASICやFPGAが大手テクノロジー企業に採用されています。これらのAIチップの違いは何でしょうか?今後、AIの発展にどのように影響し、ひいてはNVIDIAの独占的地位を揺るがす可能性があるのでしょうか?この記事はCNBCの動画の重要ポイントを抜粋したものです。
GPU: AI の黄金時代の始まり
GPUはゲームカードからAIコアへと飛躍し、2012年のAlexNetに遡ります。研究チームは初めてNVIDIA GPUの並列計算能力を神経ネットワークのトレーニングに使用し、画像認識コンペティションで他の競合に大きく先んじることに成功し、深層学習時代の幕開けを告げました。
GPUのコアな利点は、その数千の並列処理コアから来ており、行列乗算などのテンソル演算を効率的に実行でき、AIのトレーニングや推論に適しています。現在、NVIDIAはOpenAIや各国政府、企業にGPUを供給するだけでなく、サーバーシステム全体を直接構築しています。単一ラックのBlackwellサーバーは300万ドルの価格が付けられており、NVIDIAは毎週1000台の出貨を行っていると明らかにし、AIコンピューティングの需要の狂熱を示しています。NVIDIAの競合であるAMDは、Instinct GPUとオープンソースソフトウェアエコシステムを利用して進展を加速しており、最近ではOpenAIやOracleの支援を受け、AIインフラ市場の重要な推進者となっています。AMD GPUの違いは主にオープンソースソフトウェアを使用しているのに対し、NVIDIA GPUはCUDAを中心に最適化されています。CUDAはNVIDIAの独自ソフトウェアプラットフォームです。
特定の用途のために設計されたASICが新たなトレンドとなる
Google、アマゾン、Meta、マイクロソフトからOpenAIやブロードコムまで、各大手クラウド企業がカスタマイズされたASIC(アプリケーション固有集積回路)の研究開発に乗り出しています。これらの単一用途向けに設計されたチップは、今後数年間で最も成長が期待されるAIチップのカテゴリになると予測されています。
大規模言語モデルが成熟期を迎える中、推論の需要は急速に訓練を超えています。推論のコスト、エネルギー消費、安定性はクラウドプラットフォームの痛点となっており、これがASICの主戦場です。汎用のGPUとは異なり、ASICは「専用の超精密ツール」として、特定のタイプのAIワークロードに対してハードコーディングされた最適化を行います。そのため、速度が速く、消費電力も低くなります。欠点は柔軟性が低く、開発のハードルが非常に高いことです。カスタムチップの設計コストは数十億ドルに達することがあるため、クラウドの巨頭だけが負担できるのです。
AI用のカスタマイズASICはコストが高く、非常に高価で、少なくとも数千から数億ドルが必要です。しかし、カスタマイズASICを負担できない大規模なクラウドサービスプロバイダーにとって、カスタマイズAS6は高いエネルギー効率を提供し、NVIDIAへの依存を減らすため、リターンをもたらすことができます。
博通のASICがAI市場シェアに強く挑戦する
ブロードコムとマーベルなどの半導体ファウンドリ設計会社は、超大型クラウド企業の核心的な戦略的パートナーです。Google TPU、Metaの自社開発アアクセラレーター、そしてOpenAIのまもなく登場するASICは、すべてブロードコムが深く関与しています。ブロードコムはGoogleのTPUとMetaのAI推論トレーニングの構築を支援しており、アナリストはブロードコムがカスタマイズされたASIC市場でのシェアを70%から80%に達すると予測しています。
FPGA:ASICとGPUの柔軟な選択
FPGAは、デバイス側でエッジAIをサポートするためのチップであり、クラウド側ではありません。FPGAの最大の利点は「再構成可能」であることです。企業がハードウェアがまだ決まっていない段階でアーキテクチャをテストする必要があるとき、FPGAはGPUの汎用性とASICの高性能の間の選択肢を提供します。ASICほどの性能はありませんが、その柔軟性によりデータセンターや組み込みデバイスに依然として好まれています。AMD(Xilinxを買収)とインテル(Alteraを買収)は、FPGA市場の2大勢力です。
グーグルTPU
GoogleはASICの最初の大手プレーヤーであり、人工知能の加速のために特注の専用集積回路(ASIC)を最初に開発しました。そして、2015年に初のASICが登場した際に、Tensor Processing Unit(テンソル処理装置、TPU)という用語を生み出しました。TPUはまた、Googleが2017年にTransformerアーキテクチャを発明するのを促進し、ChatGPTやClaudeなどのAIの共通基盤となりました。現在、Googleは第7世代TPU Ironwoodまで進化しており、Anthropologieが数百万のTPUを使用してClaudeシリーズモデルを訓練するのを支援しています。外部では、TPUが特定の状況下でNVIDIAのGPUを超えることさえあると噂されていますが、Googleは伝統的に自社使用のみであるため、TPUの真の潜在能力はまだ完全には発揮されていません。
AWS Tranium:クラウド推論マトリックス
AWSはAnnapurna Labsを買収した後、自社のAIチップに全力を投入しています。TraniumとInferentiaはAWSのトレーニングと推論プラットフォームの重要な柱となりました。Traniumは大量の小型テンソルエンジンで構成されており、高度に柔軟で、AWSによれば、コストパフォーマンスはクラウド内の他のハードウェアに対して30%から40%高いとのことです。2024年、AnthropicはAWS北インディアナデータセンターで50万個のTranium 2を使用してモデルをトレーニングしましたが、その際には完全にNVIDIAのGPUを使用していないことがわかります。ASICの地位が高まっていることが見て取れます。
NPU(神経ネットワークプロセッサー):携帯電話、コンピュータ、自動車用デバイスのエッジAIチップ
データセンターに加えて、AIチップは個人デバイスにも拡張されています。NPU(ニューラルネットワークプロセッサー)は、クラウドではなくデバイス上でエッジAIを実行するために特別に設計されたチップであり、個人のプライバシーを保護することができます。現在、Qualcomm Snapdragon、AMD、インテル、AppleのMシリーズSoCに統合されており、スマートフォン、ノートパソコン、スマートホーム、自動車、さらにはロボットに使用されています。デバイス側のAIは、より高いプライバシー保護、低遅延、より強力な制御をもたらし、次の波のAI普及の重要な推進力となります。
TSMCはチップ争奪戦の中心となっています。
NVIDIAのBlackwell、Google TPU、またはAWS Traniumなど、ほとんどのAIチップは最終的にTSMCによって製造されます。これにより、AIコンピューティング能力の供給は世界的な地政学と密接に結びついています。アメリカは、TSMCのアリゾナ工場とインテルの18Aプロセスを通じて、一部のチップ製造能力を国内に戻そうとしています。しかし、中国企業のHuaweiやAlibabaも、自社のASICを積極的に開発し、輸出規制の下で国内代替案を模索しています。
AI チップの群雄時代が到来
NVIDIA GPUの強力な独占、あるいはGoogle、AWS、Meta、OpenAIなどの企業のASIC競争とNPUがエッジAIをすべてのスマートフォンや自動車に推進している中、チップ戦争は依然として加速しています。NVIDIAの地位を揺るがすことは容易ではありませんが、AI市場の規模は巨大で、新しいプレーヤーが次々と参入しており、今後10年間のチップの地図は必ずより激しくなるでしょう。
この記事 Huida GPUとGoogleの技術的な違い、Amazon AWSの自社開発AIチップ、および将来の市場動向は、Chain News ABMediaに最初に掲載されました。