コンピューティングの境界を再構築する:分散コンピューティングパワーの現状と展望

中級1/4/2024, 5:09:37 PM
AIや他の分野の発展に伴い、多くの産業が基本的な論理において大きな変化を遂げるでしょう。コンピューティングパワーはより重要な位置に上昇し、それに関連するさまざまな側面も産業において広範囲な探求を引き起こすでしょう。分散型コンピューティングパワーネットワークは独自の利点を持ち、中心集権化のリスクを軽減することができ、中心化されたコンピューティングパワーの補完としても機能することができます。

需要のあるコンピューティングパワー

2009年の「アバター」の公開以来、それは並外れたリアルな映像で3D映画の最初の戦いを開始しました。その背後には巨大な貢献者として、Weta Digitalが映画全体の視覚効果のレンダリングに貢献しました。ニュージーランドの1万平方フィートのサーバーファームでは、そのコンピュータクラスターが1日に最大140万のタスクを処理し、1秒間に8GBのデータを処理しました。それでも、全てのレンダリングが完了するまで1か月以上も稼働し続けました。

大規模な機器の展開とコスト投資により、「アバター」は映画史上で顕著な成果を上げました。

同じ年の1月3日、Satoshi Nakamoto はフィンランドのヘルシンキにある小さなサーバーでビットコインのジェネシスブロックを採掘し、50 BTC のブロック報酬を受け取りました。暗号通貨の初日以来、コンピューティングパワーは業界で非常に重要な役割を果たしています。

最長のチェーンは、目撃された出来事の順序の証拠だけでなく、最大のCPUパワープールから来た証拠でもあります。

—— ビットコインホワイトペーパー

PoWコンセンサスメカニズムの文脈では、計算能力の貢献はチェーンのセキュリティを保証します。同時に、ハッシュレートが継続的に上昇していることは、マイナーのコンピューティングパワーへの継続的な投資とプラスの収入期待を証明することもできます。コンピューティングパワーに対する業界の真の需要も、チップメーカーの発展を大きく促進しています。マイニングマシンチップは、CPU、GPU、FPGA、ASICなどの開発段階を経ています。現在、ビットコインマイニングマシンは通常、SHA-256などの特定のアルゴリズムを効率的に実行できるASIC(特定用途向けイングレート回路)テクノロジーに基づくチップです。ビットコインがもたらす莫大な経済的利益も、関連するマイニングにおけるコンピューティングパワーの需要を押し上げています。しかし、過度に専門化された機器とクラスター効果は、鉱山労働者であろうと鉱山機械メーカーであろうと、参加者の間にサイフォン効果を引き起こしています。それらはすべて、資本集約的な集中開発の傾向を示しています。

イーサリアムのスマートコントラクトの登場により、そのプログラム可能性、合成性、その他の特徴により、特にDeFiの分野で幅広いアプリケーションが形成され、その結果、ETHの価格が上昇し続けています。それでも、PoWコンセンサスの段階では、イーサリアムのマイニング難易度も上昇しています。イーサリアムのマイニングマシンに対するマイナーのコンピューティングパワー要件も日々増加しています。しかし、ASICチップを使用するビットコインとは異なり、イーサリアムはNvidia RTXシリーズなどのグラフィックスプロセッシングユニット(GPU)を使用する必要があります。このため、一般的なコンピューティングハードウェアが参加するのに適しています。これは市場でGPUの競争を引き起こし、市場でのハイエンドグラフィックカードの在庫不足を引き起こしました。

2022年11月30日が来たとき、OpenAIによって開発されたChatGPTもAIの分野で画期的な意義を示しました。ユーザーは、ChatGPTによってもたらされた新しい体験に驚嘆しました。このChatGPTは、リアルな人間と同様にコンテキストに基づいてさまざまなユーザー提案タスクを完了することができます。今年9月に発売された新バージョンでは、音声や画像などのマルチモーダル機能を追加した生成AIにより、ユーザーエクスペリエンスをより新しい段階に引き上げました。

しかし、対応するGPT4には、モデルの事前トレーニングおよびその後の微調整に関与する1兆を超えるパラメータがあります。これらはAI分野で最も需要の高いコンピューティングパワーを持つ2つの部分です。事前トレーニング段階では、大量のテキストを研究して言語パターン、文法、および関連する文脈を習得します。これにより、入力に基づいて連続かつ文脈を考慮したテキストを生成するための言語パターンを理解できるようになります。事前トレーニングの後、GPT4は特定のコンテンツやスタイルに適応し、特定の需要シナリオでのパフォーマンスと特殊化を向上させるために微調整されます。

GPTが採用しているTransformerアーキテクチャはセルフアテンションメカニズムを導入しているため、このメカニズムにより、モデルは入力シーケンスを処理するときにシーケンスの異なる部分間の関係に同時に注意を払うことができます。そのため、計算能力の需要が急激に高まっています。特に長いシーケンスを処理する場合、大量の並列計算と多数のアテンションスコアの記憶が必要であり、大量のメモリと高速データ伝送能力も必要になります。同じアーキテクチャの現在の主流のLLMは、高性能GPUに対する需要が非常に高く、AI大規模モデルの分野への投資コストが莫大であることも示しています。関連するSemiAnalysisの試算によると、GPT4モデルのトレーニングコストは6,300万ドルにも上ります。優れたインタラクティブ体験を実現するために、GPT4は日常業務を維持するために、日常業務に多くの計算能力を投資する必要があります。

コンピューティングハードウェアの分類

ここでは、現在の主要なコンピューティングパワーのハードウェアタイプを理解する必要があります。CPU、GPU、FPGA、およびASICによってそれぞれ処理できるコンピューティングパワーの需要シナリオは何ですか。

・CPUとGPUのアーキテクチャ図から、GPUにはより多くのコアが含まれており、GPUは複数の計算タスクを同時に処理できるようになっています。並列計算はより強力な処理能力を持ち、多数の計算タスクを処理するのに適しており、機械学習やディープラーニングの分野では広く使用されています。CPUはコアの数が少なく、単一の複雑な計算や連続タスクをより集中的に処理するのに適していますが、並列計算タスクを処理する際にはGPUほど効率的ではありません。レンダリングタスクやニューラルネットワーク計算タスクでは、多数の繰り返し計算や並列計算が通常処理される必要がありますので、この点においてGPUがCPUよりも効率的かつ適しています。

• FPGA(Field Programmable Gate Array)は、アプリケーション固有集積回路(ASIC)の分野における準カスタム回路であり、多数の小さな処理ユニットから構成される配列で、FPGAはプログラマブルなデジタル論理回路集積チップとして理解されます。現在のアプリケーションは主にハードウェアアクセラレーションに焦点を当てており、他のタスクは依然としてCPU上で完了されており、FPGAとCPUが協力して作業しています。

• ASIC(Application Specific Integrated Circuit)は、特定のユーザー要件や特定の電子システムのニーズに対応するように設計された集積回路を指します。汎用集積回路と比較して、ASICはサイズが小さく、消費電力が少なく、信頼性が向上し、パフォーマンスが向上し、機密性が向上し、大量生産時のコストが削減されるという利点があります。そのため、特定の計算タスクのみを実行する必要があるビットコインマイニングの固有のシナリオでは、ASICが最も適しています。Googleは機械学習向けに特別に設計されたTPU(Tensor Processing Unit)も提供していますが、現在は主にGoogle Cloudを通じてコンピューティングパワーのレンタルサービスを提供しています。

•FPGAと比較してASICは、アプリケーション固有の集積回路であり、設計が完了すると集積回路が固定されます。FPGAは、多数の基本的なデジタル回路ゲートとメモリをアレイに統合しています。開発者はFPGA構成をプログラミングすることで回路を定義でき、このプログラミングは置き換え可能です。しかし、AI分野の現在の更新速度を考えると、カスタマイズされたチップやセミカスタムチップを時間内に調整して再構成し、さまざまなタスクを実行したり、新しいアルゴリズムに適応したりすることはできません。したがって、GPUの一般的な適応性と柔軟性により、AIの分野で輝いています。主要なGPUメーカーも、AI分野でのGPUの適応に関連する最適化を行っています。Nvidiaを例にとると、ディープラーニング専用に設計されたTeslaシリーズとAmpereアーキテクチャのGPUを発売しました。これらのハードウェアには、機械学習とディープラーニングの計算に最適化されたハードウェアユニット(Tensor Core)が含まれており、GPUをより効率的かつ効率的に実行できるようにします。ニューラルネットワークの順方向および後方伝播を実行するための低エネルギー消費。さらに、開発者が汎用並列コンピューティングにGPUを使用するのに役立つCUDA(Compute Unified Device Architecture)など、AI開発をサポートするための幅広いツールとライブラリが提供されています。

分散コンピューティングパワー

分散コンピューティングパワーは、分散コンピューティングリソースを通じて処理能力を提供する方法を指します。この分散アプローチは、通常、ブロックチェーン技術や同様の分散台帳技術と組み合わされ、アイドルコンピューティングリソースをプールし、必要なユーザーに配布してリソース共有、取引、管理を実現するために利用されます。

背景

• 強力なコンピューティングハードウェアの需要。クリエイターエコノミーの繁栄により、デジタルメディア処理は普遍的な創造の時代に入った。ビジュアルエフェクトのレンダリング需要が急増し、専門のレンダリングアウトソーシングスタジオ、クラウドレンダリングプラットフォームなどが登場しています。しかし、このアプローチにはコンピューティングパワーのハードウェアを初期調達する際に独自に多額の投資をする必要があります。

• コンピューティングパワーのハードウェアは単一のソースから提供されています。AI分野の発展に伴い、コンピューティングハードウェアへの需要が高まっています。Nvidiaを中心とする世界をリードするGPU製造会社は、このAIコンピューティングパワー競争で多額の利益を上げています。その供給能力は、特定の産業の発展を制限する要因にさえなる可能性があります。また、Nvidiaの時価総額も今年初めて1兆米ドルを超えました。

• コンピューティングパワーの提供は、まだ主に中央集権型クラウドプラットフォームに依存しています。高性能コンピューティングの需要の急増から実際に恩恵を受けているのは、AWSを代表とする中央集権型クラウドベンダーです。彼らはGPUクラウドコンピューティングサービスを開始しました。現在のAWS p4d.24xlargeを例にとると、MLに特化したこのHPCサーバーを1台借りるコストは、8つのNvidia A100 40GB GPUを搭載し、時給32.8ドルで、その粗利益率は61%と推定されています。これは他のクラウド大手も参入し、業界の初期段階でできるだけ多くの利点を得るためにハードウェアを貯蔵することを引き起こしました。

•政治的、人的介入、その他の要因により、業界の不均一な発展につながります。不均衡 GPU の所有と集中が、豊富な資金と技術を持つ組織や国に傾いており、高性能コンピューティング クラスターに依存していることは容易に理解できます。これにより、米国に代表されるチップおよび半導体製造大国は、一般的な人工知能の分野で他国の研究能力を弱めるために、AIチップの輸出に対してより厳しい制限を実施しました。

• コンピューティングパワーリソースの割り当てが集中しすぎている。AI分野の開発イニシアチブは、少数の巨大企業の手に委ねられています。現在、OpenAIに代表される巨人はMicrosoftの恩恵を受けており、その背後にはMicrosoft Azureが提供する豊富なコンピューティングリソースがあります。これにより、OpenAIはすべての新製品のリリースは、現在のAI業界の再形成と統合であり、他のチームが大規模モデルの分野に追いつくことを困難にしています。

高額なハードウェアコスト、地理的制約、不均衡な産業発展に直面して、他の解決策はありますか?

時代の要請に応じて、分散型コンピューティングパワープラットフォームが登場しました。このプラットフォームの目的は、より効率的にグローバルなコンピューティングリソースを活用するためのオープンで透明性のある自己規制市場を作り出すことです。

適応分析

  1. 分散型コンピューティング電源側

現在の高いハードウェア価格と供給側の人為的なコントロールは、分散型コンピューティングパワーネットワークの構築の土壌を提供しています。

• 分散コンピューティングパワーの構成の観点から、様々なコンピューティングパワープロバイダは、個人のPCから小規模インターネットオブシングス機器、データセンター、IDCなどに及び、蓄積されたコンピューティングパワーはより柔軟でスケーラブルなコンピューティングソリューションを提供し、これにより、より多くのAI開発者や組織が限られたリソースを効果的に活用するのに役立ちます。分散コンピューティングパワー共有は、個人や組織のアイドルコンピューティングパワーを介して実現できます。ただし、これらのコンピューティングパワーの可用性と安定性は、ユーザーの使用制限または共有の上限に左右されます。

• 可能性の高いコンピューティングパワーの源泉は、イーサリアムがPoSに変換された後に関連鉱山によって直接提供されるコンピューティングパワーです。 人材。 米国の主要GPU統合コンピューティングパワープロバイダーであるCoreweaveを例に挙げてみましょう。 これは、かつて北アメリカ最大のイーサリアム鉱業ファームであり、構築された完全なインフラに基づいています。 さらに、退役したイーサリアム鉱業機は、多くのアイドルGPUを含んでいます。 イーサリアム鉱業時代のピーク時にオンラインで稼働していたGPUは約2700万個あったと報じられています。 これらのGPUを活性化させることは、分散型コンピューティングパワーネットワークの重要な部分にさらになる可能性があります。 コンピューティングパワーの源泉。

  1. 分散コンピューティングパワー需要側

• 技術実装の観点から、グラフィックスレンダリングやビデオトランスコーディングで分散コンピューティングリソースが使用されています。 このような計算は複雑です。 低レベルのタスクに対して、ブロックチェーン技術とWeb3を組み合わせた経済システムは、ネットワーク参加者に具体的な収益インセンティブをもたらし、情報データの安全な伝送を確保しながら、効果的なビジネスモデルと顧客グループを蓄積することができます。 AI分野は大量の並列計算、ノード間の通信と同期、ネットワーク環境およびその他の側面に非常に高い要件を持っており、現在のアプリケーションは微調整、推論、AIGCなどのより多くのアプリケーション層に焦点を当てています。

・ビジネスロジックの観点から、単にコンピューティングパワーを買ったり売ったりする市場は想像力に欠けており、業界はサプライチェーンと価格設定に対処するしかない。しかし、これらは偶然にも中央集権型クラウドサービスの利点でもあります。そのため、市場の天井は低く、より多くの想像力の余地はありません。そのため、元々単純なグラフィックスレンダリングを行っていたネットワークがAI変換を求めているのも見られます。例えば、Render Networkと2023年第1四半期には、ネイティブの統合安定性AIツールセットをローンチしました。この機能はステーブルディフュージョン操作を導入し、ビジネスはレンダリング操作に限られなくなり、AI領域に拡大しています。

• 主要な顧客グループの観点から見ると、Bサイドの大規模な顧客が一元化された統合クラウドサービスを好むことは明らかです。彼らは通常、十分な予算があれば、通常、大規模な基礎モデルの開発に従事し、より効率的な形式のコンピューティングパワーアグリゲーションを必要とします。したがって、分散型コンピューティングパワーは、より中小規模の開発チームや個人にサービスを提供し、主にモデルの微調整に従事しています。または、提供されるコンピューティング能力の形式に高い要件がないアプリケーション層開発。彼らは価格に敏感です。分散型コンピューティングパワーは、初期コストの投資を根本的に削減できるため、全体的な使用コストも低くなります。Gensynが以前に計算したコストに基づいて、計算能力はV100が提供する同等の値に変換されます。コンピューティングパワー、Gensynの価格は1時間あたりわずか0.4米ドルで、AWSの同等のコンピューティングパワーである1時間あたり2米ドルよりも80%低くなっています。この部分は、現在の業界では支出の大部分を占めていませんが、AIアプリケーションの使用シナリオが拡大し続けるにつれて、将来の市場規模を過小評価することはできません。

• 提供されているサービスの観点から、現在のプロジェクトは、分散型クラウドプラットフォームのコンセプトに近いことがわかります。開発、展開、オンライン、配布、取引までの一連の管理を提供しています。これにより、関連するツールコンポーネントを使用して開発と展開を簡素化し、効率を向上させることができる開発者を引き付ける利点があります。同時に、プラットフォーム上でこれらの完全なアプリケーション製品を使用するユーザーを引き付けることができ、独自のコンピューティングパワーネットワークに基づいた生態系の堀を形成します。ただし、これはプロジェクトの運営に対してより高い要求を提起しています。優れた開発者やユーザーを引き付け、定着させる方法は非常に重要です。

異なる分野のアプリケーション

1. デジタルメディア処理

ブロックチェーンに基づくグローバルレンダリングプラットフォームであるRender Networkは、デジタルクリエイティビティを持つクリエイターを支援することを目的としています。これにより、クリエイターはGPUレンダリング作業を必要に応じてグローバルGPUノードに拡張し、より高速かつ安価なレンダリング能力を提供できます。クリエイターがレンダリング結果を確認した後、ブロックチェーンネットワークはコードをノードに送信し、コイン報酬を提供します。従来のビジュアルエフェクト実装方法と比較して、現地のレンダリングインフラの構築や購入したクラウドサービスに対応するGPU費用の追加には、高い前払い投資が必要です。

2017年の設立以来、Render Networkのユーザーはネットワーク上で1600万フレーム以上とほぼ50万のシーンをレンダリングしています。 Render Network 2023年第2四半期からのデータによると、レンダリングフレームのジョブ数とアクティブノード数の両方が増加していることが示されています。 さらに、Render Networkと2023年第1四半期は、ネイティブに統合されたStability AIツールセットを発表しました。 ユーザーはこの機能を使用して安定した拡散操作を導入でき、ビジネスはレンダリング操作に限定されず、AI分野にも拡大しています。

Livepeerは、ネットワーク参加者が自らのGPUコンピューティングパワーと帯域幅を提供することで、クリエイターにリアルタイムのビデオトランスコーディングサービスを提供します。放送者は、さまざまな種類のビデオをLivepeerに送信してトランスコーディングを完了し、それらをさまざまなエンドユーザーに配信することで、ビデオコンテンツの普及を実現できます。同時に、ビデオトランスコーディング、転送、およびストレージなどのサービスを取得するために、法定通貨で簡単に支払うことができます。

Livepeerネットワークでは、誰でも個人のコンピュータリソース(CPU、GPU、および帯域幅)を提供してビデオのトランスコードと配信に貢献し、手数料を稼ぐことができます。ネイティブトークン(LPT)は、ネットワーク参加者の権利と利益を表しています。担保されたトークンの数は、ノードの重みを決定し、それによってトランスコードタスクを取得する可能性が影響を受けます。同時に、LPTは、ノードが割り当てられたタスクを安全かつ信頼性高く迅速に完了するのをサポートする役割も果たしています。

2. AIarea展示

現在のAI領域のエコシステムでは、主要なプレーヤーは大まかに次のように分けることができます:

需要側から始めると、業界のさまざまな段階でのコンピューティングパワーの需要には明らかな違いがあります。基盤となるモデルの開発を例に取ると、事前トレーニングプロセスには非常に高い並列計算、ストレージ、通信などが必要で、トレーニング結果の効果を確保するためには大規模なコンピューティングパワークラスタが必要です。現在、コンピューティングパワーの主な供給源は、主に自社構築のコンピュータールームや集中型クラウドサービスプラットフォームに依存しています。モデルの微調整段階、リアルタイム推論、アプリケーション開発の後の段階では、並列計算とノード間通信への要件はそれほど高くありません。これが分散型コンピューティングパワーがその全ての潜在能力を発揮することができる正にその場です。

これまでにかなりの人気を博したプロジェクトを見てみると、Akash Neworkは分散コンピューティングパワーの方向にいくつかの試みを行ってきました:

Akash Networkは、異なる技術コンポーネントを組み合わせて、ユーザーが分散型クラウド環境で効率的かつ柔軟にアプリケーションを展開および管理できるようにします。ユーザーは、Dockerコンテナ技術を使用してアプリケーションをパッケージ化し、その後、Akashが提供するクラウドリソース上でCloudMOSを介してKubernetesを通じて展開およびスケーリングすることができます。Akashは「逆オークション」アプローチを採用しており、これにより価格が従来のクラウドサービスよりも低くなっています。

Akash Networkは、今年8月にメインネットワークの第6弾アップグレードを発表し、クラウドサービスにGPUのサポートを組み込み、将来的にさらに多くのAIチームにコンピューティングパワーを提供することを発表しました。

業界で今年注目を集めたプロジェクトであるGensyn.aiは、a16zによって主導され、4300万ドルのシリーズA資金調達を完了しました。これまでに公開された文書から判断すると、このプロジェクトは、PolkadotネットワークのL1 PoSプロトコルに基づくメインネットワークであり、ディープラーニングに焦点を当てています。これは、グローバルなスーパーコンピューティングクラスターネットワークを作成することで、機械学習の限界を em すことを目指しています。このネットワークは、余剰のコンピューティングパワーを持つデータセンターから、個人のGPU、カスタムASIC、SoCなどを潜在的に貢献できるPCまでのデバイスを接続します。

分散コンピューティングパワーに現在存在する問題のいくつかを解決するために、Gensynは学術界の新しい理論研究成果を活用しています:

  1. 確率的学習証明を採用し、つまり、勾配ベースの最適化プロセスのメタデータを使用して関連するタスク実行の証明を構築して検証プロセスを高速化する;

  2. グラフベースのピンポイントプロトコル、GPPは、DNN(Deep Neural Network)のオフライン実行とブロックチェーン上のスマートコントラクトフレームワークを接続し、ハードウェアデバイス間で簡単に発生する不整合を解決し、検証の一貫性を確保します。

  3. Truebitに類似したインセンティブ手法は、ステーキングと罰則の組み合わせを通じて、経済的合理的参加者が正直に割り当てられたタスクを遂行することを可能にするインセンティブシステムを構築します。このメカニズムは、暗号技術とゲーム理論の手法を使用しています。この検証システムは、大規模なモデルトレーニング計算の整合性と信頼性を維持するために不可欠です。

ただし、上記の内容は、プロジェクト文書の主なハイライトとしてモデルトレーニング機能を実現するための分散型コンピューティング能力ではなく、タスク完了検証レベルの解決に関するものであり、特に並列コンピューティングと分散ハードウェア間の通信、同期、およびその他の問題の最適化に関するものであることは注目に値します。現在、ネットワーク遅延 (Latency) と帯域幅 (Bandwidth) の影響を受け、ノード間の頻繁な通信により、反復時間と通信コストが増加します。これでは、実際の最適化がもたらされないだけでなく、トレーニングの効率が低下します。モデルトレーニングでノード通信と並列計算を処理するGensynのアプローチには、計算の分散性を管理するための複雑な調整プロトコルが含まれる場合があります。しかし、より詳細な技術情報や具体的な手法の理解が深まらなければ、Gensynがネットワークを通じて大規模なモデル学習を実現する正確なメカニズムは、プロジェクトが稼働するまで明らかになりません。

また、AI、レンダリング、科学研究にコンピューティングパワーを適用するためにブロックチェーン技術を利用するEdge Matrix Computing(EMC)プロトコルにも注意を払いました。AI eコマースアクセスなどのシナリオにタスクが異なるコンピューティングパワーノードに分散されるため、この方法はコンピューティングパワーの効率を向上させるだけでなく、データ転送のセキュリティも確保します。同時に、ユーザーがコンピューティングリソースにアクセスし交換できるコンピューティングパワーマーケットを提供します。これにより、開発者はより迅速に展開しユーザーに到達することができます。Web3の経済形態と組み合わせることで、コンピューティングパワープロバイダーはユーザーの実際の使用に基づいて実際の利益とプロトコルパーティの補助金を得ることもでき、AI開発者は推論とレンダリングのコストを抑えることができます。以下はその主要な構成要素と機能の概要です。

GPUベースのRWA製品も登場することが予想されています。その鍵は、元々コンピュータールームに固定されていたハードウェアを活性化し、RWAの形で分割して循環させることで追加の流動性を得ることです。高品質のGPUは、RWAの基礎資産として使用できます。その理由は、コンピューティングパワーはAI分野において硬貨と見なすことができるからです。現在、供給と需要の間に明らかな矛盾があり、この矛盾は短期間で解決されることはないため、GPUの価格は比較的安定しています。

また、IDCのコンピュータールームを展開してコンピューティングパワークラスターを実装することも、EMCプロトコルの重要な部分です。これにより、GPUが統一された環境で動作するだけでなく、モデルの事前トレーニングなどの関連する大規模なコンピューティングパワー消費タスクをより効率的に処理できます。これは、プロのユーザーのニーズに応えます。同時に、IDCのコンピュータールームは多数のGPUを集中してホストおよび実行することもでき、同じタイプの高品質ハードウェアの技術仕様を確実にし、それらをRWA製品として市場にパッケージ化しやすくします。DeFiの新しいアイデアを開拓します。

近年、学術界ではエッジコンピューティング分野で新しい技術理論やアプリケーション実践も発展しています。クラウドコンピューティングの補完と最適化として、エッジコンピューティングは人工知能の一部であり、クラウドからエッジ、さらにはますます小型のIoTデバイスへと加速しています。これらのIoTデバイスは通常小さく、そのため、消費電力、レイテンシー、および精度などの問題に対応するために軽量機械学習が好まれています。

Network3は、世界中のAI開発者にAIモデルのアルゴリズム最適化や圧縮、フェデレーテッドラーニング、エッジコンピューティング、プライバシーコンピューティングを提供するための専用のAI Layer2を構築することで構築されています。彼らがモデルの訓練や検証を迅速かつ便利に、効率的に行うのを支援するサービスを提供します。多数のスマートIoTハードウェアデバイスを利用することで、対応するコンピューティングパワーを提供する小さなモデルに焦点を当てることができ、TEE(Trusted Execution Environment)を構築することで、ユーザーは関連するデータのプライバシーとセキュリティを確保しながら、モデルの勾配をアップロードするだけで関連するトレーニングを完了することができます。

要約する

• AIやその他の分野の発展により、多くの産業が基本ロジックで大きな変化を経験し、コンピューティングパワーはより重要な位置に上昇し、それに関連するさまざまな側面も産業で広範な探索を引き起こすでしょう。分散型コンピューティングパワーネットワークは、独自の利点を持ち、中央集権化のリスクを減らすことができ、また中央集権化されたコンピューティングパワーの補完としても機能することができます。

• そして、AI分野のチームも岐路に立たされています。大規模な訓練済みモデルを使用して独自の製品を開発するか、それぞれの地域で大規模なモデルの訓練に参加するかどうかの選択は、ほとんどが弁証法的です。したがって、分散コンピューティングパワーはさまざまなビジネスニーズに対応できます。この発展トレンドは歓迎されており、技術の更新とアルゴリズムの繰り返しにより、必然的に主要分野での突破口が生まれるでしょう。

• 怖がらず、ゆっくりと考えてみてください。

リファレンス

https://www.semianalysis.com/p/gpt-4-architecture-infrastructure

https://medium.com/render-token/render-network-q2-highlights-part-2-network-statistics-ac5aa6bfa4e5

https://know.rendernetwork.com/

https://medium.com/livepeer-blog/an-overview-of-the-livepeer-network-and-lpt-44985f9321ff

https://www.youtube.com/watch?v=FDA9wqZmsY8

https://mirror.xyz/1kx.eth/q0s9RCH43JCDq8Z2w2Zo6S5SYcFt9ZQaRITzR4G7a_k

https://mirror.xyz/gensyn.eth/_K2v2uuFZdNnsHxVL3Bjrs4GORu3COCMJZJi7_MxByo

https://docs.gensyn.ai/litepaper/#solution

https://a16zcrypto.com/posts/announcement/investing-in-gensyn/

https://www.pinecone.io/learn/chunking-strategies/

https://akash.network/blog/the-fast-evolving-ai-landscape/

https://aws.amazon.com/cn/blogs/compute/amazon-ec2-p4d-instances-deep-dive/

https://manual.edgematrix.pro/emc-network/what-is-emc-and-poc

https://arstechnica.com/gaming/2022/09/the-end-of-ethereum-mining-could-be-a-bonanza-for-gpu-shoppers/

免責事項:

  1. この記事は[から転載されましたPANews]. すべての著作権は元の著者に帰属します [フューチャーキャンパス]。If there are objections to this reprint, please contact the ゲート ラーンチームが速やかに対処します。
  2. 免責事項:この記事で表現されている意見や考えは、著者個人のものであり、いかなる投資アドバイスを意味するものではありません。
  3. その記事の翻訳はGate Learnチームによって行われます。特に断りがない限り、翻訳された記事のコピー、配布、または盗用は禁止されています。

コンピューティングの境界を再構築する:分散コンピューティングパワーの現状と展望

中級1/4/2024, 5:09:37 PM
AIや他の分野の発展に伴い、多くの産業が基本的な論理において大きな変化を遂げるでしょう。コンピューティングパワーはより重要な位置に上昇し、それに関連するさまざまな側面も産業において広範囲な探求を引き起こすでしょう。分散型コンピューティングパワーネットワークは独自の利点を持ち、中心集権化のリスクを軽減することができ、中心化されたコンピューティングパワーの補完としても機能することができます。

需要のあるコンピューティングパワー

2009年の「アバター」の公開以来、それは並外れたリアルな映像で3D映画の最初の戦いを開始しました。その背後には巨大な貢献者として、Weta Digitalが映画全体の視覚効果のレンダリングに貢献しました。ニュージーランドの1万平方フィートのサーバーファームでは、そのコンピュータクラスターが1日に最大140万のタスクを処理し、1秒間に8GBのデータを処理しました。それでも、全てのレンダリングが完了するまで1か月以上も稼働し続けました。

大規模な機器の展開とコスト投資により、「アバター」は映画史上で顕著な成果を上げました。

同じ年の1月3日、Satoshi Nakamoto はフィンランドのヘルシンキにある小さなサーバーでビットコインのジェネシスブロックを採掘し、50 BTC のブロック報酬を受け取りました。暗号通貨の初日以来、コンピューティングパワーは業界で非常に重要な役割を果たしています。

最長のチェーンは、目撃された出来事の順序の証拠だけでなく、最大のCPUパワープールから来た証拠でもあります。

—— ビットコインホワイトペーパー

PoWコンセンサスメカニズムの文脈では、計算能力の貢献はチェーンのセキュリティを保証します。同時に、ハッシュレートが継続的に上昇していることは、マイナーのコンピューティングパワーへの継続的な投資とプラスの収入期待を証明することもできます。コンピューティングパワーに対する業界の真の需要も、チップメーカーの発展を大きく促進しています。マイニングマシンチップは、CPU、GPU、FPGA、ASICなどの開発段階を経ています。現在、ビットコインマイニングマシンは通常、SHA-256などの特定のアルゴリズムを効率的に実行できるASIC(特定用途向けイングレート回路)テクノロジーに基づくチップです。ビットコインがもたらす莫大な経済的利益も、関連するマイニングにおけるコンピューティングパワーの需要を押し上げています。しかし、過度に専門化された機器とクラスター効果は、鉱山労働者であろうと鉱山機械メーカーであろうと、参加者の間にサイフォン効果を引き起こしています。それらはすべて、資本集約的な集中開発の傾向を示しています。

イーサリアムのスマートコントラクトの登場により、そのプログラム可能性、合成性、その他の特徴により、特にDeFiの分野で幅広いアプリケーションが形成され、その結果、ETHの価格が上昇し続けています。それでも、PoWコンセンサスの段階では、イーサリアムのマイニング難易度も上昇しています。イーサリアムのマイニングマシンに対するマイナーのコンピューティングパワー要件も日々増加しています。しかし、ASICチップを使用するビットコインとは異なり、イーサリアムはNvidia RTXシリーズなどのグラフィックスプロセッシングユニット(GPU)を使用する必要があります。このため、一般的なコンピューティングハードウェアが参加するのに適しています。これは市場でGPUの競争を引き起こし、市場でのハイエンドグラフィックカードの在庫不足を引き起こしました。

2022年11月30日が来たとき、OpenAIによって開発されたChatGPTもAIの分野で画期的な意義を示しました。ユーザーは、ChatGPTによってもたらされた新しい体験に驚嘆しました。このChatGPTは、リアルな人間と同様にコンテキストに基づいてさまざまなユーザー提案タスクを完了することができます。今年9月に発売された新バージョンでは、音声や画像などのマルチモーダル機能を追加した生成AIにより、ユーザーエクスペリエンスをより新しい段階に引き上げました。

しかし、対応するGPT4には、モデルの事前トレーニングおよびその後の微調整に関与する1兆を超えるパラメータがあります。これらはAI分野で最も需要の高いコンピューティングパワーを持つ2つの部分です。事前トレーニング段階では、大量のテキストを研究して言語パターン、文法、および関連する文脈を習得します。これにより、入力に基づいて連続かつ文脈を考慮したテキストを生成するための言語パターンを理解できるようになります。事前トレーニングの後、GPT4は特定のコンテンツやスタイルに適応し、特定の需要シナリオでのパフォーマンスと特殊化を向上させるために微調整されます。

GPTが採用しているTransformerアーキテクチャはセルフアテンションメカニズムを導入しているため、このメカニズムにより、モデルは入力シーケンスを処理するときにシーケンスの異なる部分間の関係に同時に注意を払うことができます。そのため、計算能力の需要が急激に高まっています。特に長いシーケンスを処理する場合、大量の並列計算と多数のアテンションスコアの記憶が必要であり、大量のメモリと高速データ伝送能力も必要になります。同じアーキテクチャの現在の主流のLLMは、高性能GPUに対する需要が非常に高く、AI大規模モデルの分野への投資コストが莫大であることも示しています。関連するSemiAnalysisの試算によると、GPT4モデルのトレーニングコストは6,300万ドルにも上ります。優れたインタラクティブ体験を実現するために、GPT4は日常業務を維持するために、日常業務に多くの計算能力を投資する必要があります。

コンピューティングハードウェアの分類

ここでは、現在の主要なコンピューティングパワーのハードウェアタイプを理解する必要があります。CPU、GPU、FPGA、およびASICによってそれぞれ処理できるコンピューティングパワーの需要シナリオは何ですか。

・CPUとGPUのアーキテクチャ図から、GPUにはより多くのコアが含まれており、GPUは複数の計算タスクを同時に処理できるようになっています。並列計算はより強力な処理能力を持ち、多数の計算タスクを処理するのに適しており、機械学習やディープラーニングの分野では広く使用されています。CPUはコアの数が少なく、単一の複雑な計算や連続タスクをより集中的に処理するのに適していますが、並列計算タスクを処理する際にはGPUほど効率的ではありません。レンダリングタスクやニューラルネットワーク計算タスクでは、多数の繰り返し計算や並列計算が通常処理される必要がありますので、この点においてGPUがCPUよりも効率的かつ適しています。

• FPGA(Field Programmable Gate Array)は、アプリケーション固有集積回路(ASIC)の分野における準カスタム回路であり、多数の小さな処理ユニットから構成される配列で、FPGAはプログラマブルなデジタル論理回路集積チップとして理解されます。現在のアプリケーションは主にハードウェアアクセラレーションに焦点を当てており、他のタスクは依然としてCPU上で完了されており、FPGAとCPUが協力して作業しています。

• ASIC(Application Specific Integrated Circuit)は、特定のユーザー要件や特定の電子システムのニーズに対応するように設計された集積回路を指します。汎用集積回路と比較して、ASICはサイズが小さく、消費電力が少なく、信頼性が向上し、パフォーマンスが向上し、機密性が向上し、大量生産時のコストが削減されるという利点があります。そのため、特定の計算タスクのみを実行する必要があるビットコインマイニングの固有のシナリオでは、ASICが最も適しています。Googleは機械学習向けに特別に設計されたTPU(Tensor Processing Unit)も提供していますが、現在は主にGoogle Cloudを通じてコンピューティングパワーのレンタルサービスを提供しています。

•FPGAと比較してASICは、アプリケーション固有の集積回路であり、設計が完了すると集積回路が固定されます。FPGAは、多数の基本的なデジタル回路ゲートとメモリをアレイに統合しています。開発者はFPGA構成をプログラミングすることで回路を定義でき、このプログラミングは置き換え可能です。しかし、AI分野の現在の更新速度を考えると、カスタマイズされたチップやセミカスタムチップを時間内に調整して再構成し、さまざまなタスクを実行したり、新しいアルゴリズムに適応したりすることはできません。したがって、GPUの一般的な適応性と柔軟性により、AIの分野で輝いています。主要なGPUメーカーも、AI分野でのGPUの適応に関連する最適化を行っています。Nvidiaを例にとると、ディープラーニング専用に設計されたTeslaシリーズとAmpereアーキテクチャのGPUを発売しました。これらのハードウェアには、機械学習とディープラーニングの計算に最適化されたハードウェアユニット(Tensor Core)が含まれており、GPUをより効率的かつ効率的に実行できるようにします。ニューラルネットワークの順方向および後方伝播を実行するための低エネルギー消費。さらに、開発者が汎用並列コンピューティングにGPUを使用するのに役立つCUDA(Compute Unified Device Architecture)など、AI開発をサポートするための幅広いツールとライブラリが提供されています。

分散コンピューティングパワー

分散コンピューティングパワーは、分散コンピューティングリソースを通じて処理能力を提供する方法を指します。この分散アプローチは、通常、ブロックチェーン技術や同様の分散台帳技術と組み合わされ、アイドルコンピューティングリソースをプールし、必要なユーザーに配布してリソース共有、取引、管理を実現するために利用されます。

背景

• 強力なコンピューティングハードウェアの需要。クリエイターエコノミーの繁栄により、デジタルメディア処理は普遍的な創造の時代に入った。ビジュアルエフェクトのレンダリング需要が急増し、専門のレンダリングアウトソーシングスタジオ、クラウドレンダリングプラットフォームなどが登場しています。しかし、このアプローチにはコンピューティングパワーのハードウェアを初期調達する際に独自に多額の投資をする必要があります。

• コンピューティングパワーのハードウェアは単一のソースから提供されています。AI分野の発展に伴い、コンピューティングハードウェアへの需要が高まっています。Nvidiaを中心とする世界をリードするGPU製造会社は、このAIコンピューティングパワー競争で多額の利益を上げています。その供給能力は、特定の産業の発展を制限する要因にさえなる可能性があります。また、Nvidiaの時価総額も今年初めて1兆米ドルを超えました。

• コンピューティングパワーの提供は、まだ主に中央集権型クラウドプラットフォームに依存しています。高性能コンピューティングの需要の急増から実際に恩恵を受けているのは、AWSを代表とする中央集権型クラウドベンダーです。彼らはGPUクラウドコンピューティングサービスを開始しました。現在のAWS p4d.24xlargeを例にとると、MLに特化したこのHPCサーバーを1台借りるコストは、8つのNvidia A100 40GB GPUを搭載し、時給32.8ドルで、その粗利益率は61%と推定されています。これは他のクラウド大手も参入し、業界の初期段階でできるだけ多くの利点を得るためにハードウェアを貯蔵することを引き起こしました。

•政治的、人的介入、その他の要因により、業界の不均一な発展につながります。不均衡 GPU の所有と集中が、豊富な資金と技術を持つ組織や国に傾いており、高性能コンピューティング クラスターに依存していることは容易に理解できます。これにより、米国に代表されるチップおよび半導体製造大国は、一般的な人工知能の分野で他国の研究能力を弱めるために、AIチップの輸出に対してより厳しい制限を実施しました。

• コンピューティングパワーリソースの割り当てが集中しすぎている。AI分野の開発イニシアチブは、少数の巨大企業の手に委ねられています。現在、OpenAIに代表される巨人はMicrosoftの恩恵を受けており、その背後にはMicrosoft Azureが提供する豊富なコンピューティングリソースがあります。これにより、OpenAIはすべての新製品のリリースは、現在のAI業界の再形成と統合であり、他のチームが大規模モデルの分野に追いつくことを困難にしています。

高額なハードウェアコスト、地理的制約、不均衡な産業発展に直面して、他の解決策はありますか?

時代の要請に応じて、分散型コンピューティングパワープラットフォームが登場しました。このプラットフォームの目的は、より効率的にグローバルなコンピューティングリソースを活用するためのオープンで透明性のある自己規制市場を作り出すことです。

適応分析

  1. 分散型コンピューティング電源側

現在の高いハードウェア価格と供給側の人為的なコントロールは、分散型コンピューティングパワーネットワークの構築の土壌を提供しています。

• 分散コンピューティングパワーの構成の観点から、様々なコンピューティングパワープロバイダは、個人のPCから小規模インターネットオブシングス機器、データセンター、IDCなどに及び、蓄積されたコンピューティングパワーはより柔軟でスケーラブルなコンピューティングソリューションを提供し、これにより、より多くのAI開発者や組織が限られたリソースを効果的に活用するのに役立ちます。分散コンピューティングパワー共有は、個人や組織のアイドルコンピューティングパワーを介して実現できます。ただし、これらのコンピューティングパワーの可用性と安定性は、ユーザーの使用制限または共有の上限に左右されます。

• 可能性の高いコンピューティングパワーの源泉は、イーサリアムがPoSに変換された後に関連鉱山によって直接提供されるコンピューティングパワーです。 人材。 米国の主要GPU統合コンピューティングパワープロバイダーであるCoreweaveを例に挙げてみましょう。 これは、かつて北アメリカ最大のイーサリアム鉱業ファームであり、構築された完全なインフラに基づいています。 さらに、退役したイーサリアム鉱業機は、多くのアイドルGPUを含んでいます。 イーサリアム鉱業時代のピーク時にオンラインで稼働していたGPUは約2700万個あったと報じられています。 これらのGPUを活性化させることは、分散型コンピューティングパワーネットワークの重要な部分にさらになる可能性があります。 コンピューティングパワーの源泉。

  1. 分散コンピューティングパワー需要側

• 技術実装の観点から、グラフィックスレンダリングやビデオトランスコーディングで分散コンピューティングリソースが使用されています。 このような計算は複雑です。 低レベルのタスクに対して、ブロックチェーン技術とWeb3を組み合わせた経済システムは、ネットワーク参加者に具体的な収益インセンティブをもたらし、情報データの安全な伝送を確保しながら、効果的なビジネスモデルと顧客グループを蓄積することができます。 AI分野は大量の並列計算、ノード間の通信と同期、ネットワーク環境およびその他の側面に非常に高い要件を持っており、現在のアプリケーションは微調整、推論、AIGCなどのより多くのアプリケーション層に焦点を当てています。

・ビジネスロジックの観点から、単にコンピューティングパワーを買ったり売ったりする市場は想像力に欠けており、業界はサプライチェーンと価格設定に対処するしかない。しかし、これらは偶然にも中央集権型クラウドサービスの利点でもあります。そのため、市場の天井は低く、より多くの想像力の余地はありません。そのため、元々単純なグラフィックスレンダリングを行っていたネットワークがAI変換を求めているのも見られます。例えば、Render Networkと2023年第1四半期には、ネイティブの統合安定性AIツールセットをローンチしました。この機能はステーブルディフュージョン操作を導入し、ビジネスはレンダリング操作に限られなくなり、AI領域に拡大しています。

• 主要な顧客グループの観点から見ると、Bサイドの大規模な顧客が一元化された統合クラウドサービスを好むことは明らかです。彼らは通常、十分な予算があれば、通常、大規模な基礎モデルの開発に従事し、より効率的な形式のコンピューティングパワーアグリゲーションを必要とします。したがって、分散型コンピューティングパワーは、より中小規模の開発チームや個人にサービスを提供し、主にモデルの微調整に従事しています。または、提供されるコンピューティング能力の形式に高い要件がないアプリケーション層開発。彼らは価格に敏感です。分散型コンピューティングパワーは、初期コストの投資を根本的に削減できるため、全体的な使用コストも低くなります。Gensynが以前に計算したコストに基づいて、計算能力はV100が提供する同等の値に変換されます。コンピューティングパワー、Gensynの価格は1時間あたりわずか0.4米ドルで、AWSの同等のコンピューティングパワーである1時間あたり2米ドルよりも80%低くなっています。この部分は、現在の業界では支出の大部分を占めていませんが、AIアプリケーションの使用シナリオが拡大し続けるにつれて、将来の市場規模を過小評価することはできません。

• 提供されているサービスの観点から、現在のプロジェクトは、分散型クラウドプラットフォームのコンセプトに近いことがわかります。開発、展開、オンライン、配布、取引までの一連の管理を提供しています。これにより、関連するツールコンポーネントを使用して開発と展開を簡素化し、効率を向上させることができる開発者を引き付ける利点があります。同時に、プラットフォーム上でこれらの完全なアプリケーション製品を使用するユーザーを引き付けることができ、独自のコンピューティングパワーネットワークに基づいた生態系の堀を形成します。ただし、これはプロジェクトの運営に対してより高い要求を提起しています。優れた開発者やユーザーを引き付け、定着させる方法は非常に重要です。

異なる分野のアプリケーション

1. デジタルメディア処理

ブロックチェーンに基づくグローバルレンダリングプラットフォームであるRender Networkは、デジタルクリエイティビティを持つクリエイターを支援することを目的としています。これにより、クリエイターはGPUレンダリング作業を必要に応じてグローバルGPUノードに拡張し、より高速かつ安価なレンダリング能力を提供できます。クリエイターがレンダリング結果を確認した後、ブロックチェーンネットワークはコードをノードに送信し、コイン報酬を提供します。従来のビジュアルエフェクト実装方法と比較して、現地のレンダリングインフラの構築や購入したクラウドサービスに対応するGPU費用の追加には、高い前払い投資が必要です。

2017年の設立以来、Render Networkのユーザーはネットワーク上で1600万フレーム以上とほぼ50万のシーンをレンダリングしています。 Render Network 2023年第2四半期からのデータによると、レンダリングフレームのジョブ数とアクティブノード数の両方が増加していることが示されています。 さらに、Render Networkと2023年第1四半期は、ネイティブに統合されたStability AIツールセットを発表しました。 ユーザーはこの機能を使用して安定した拡散操作を導入でき、ビジネスはレンダリング操作に限定されず、AI分野にも拡大しています。

Livepeerは、ネットワーク参加者が自らのGPUコンピューティングパワーと帯域幅を提供することで、クリエイターにリアルタイムのビデオトランスコーディングサービスを提供します。放送者は、さまざまな種類のビデオをLivepeerに送信してトランスコーディングを完了し、それらをさまざまなエンドユーザーに配信することで、ビデオコンテンツの普及を実現できます。同時に、ビデオトランスコーディング、転送、およびストレージなどのサービスを取得するために、法定通貨で簡単に支払うことができます。

Livepeerネットワークでは、誰でも個人のコンピュータリソース(CPU、GPU、および帯域幅)を提供してビデオのトランスコードと配信に貢献し、手数料を稼ぐことができます。ネイティブトークン(LPT)は、ネットワーク参加者の権利と利益を表しています。担保されたトークンの数は、ノードの重みを決定し、それによってトランスコードタスクを取得する可能性が影響を受けます。同時に、LPTは、ノードが割り当てられたタスクを安全かつ信頼性高く迅速に完了するのをサポートする役割も果たしています。

2. AIarea展示

現在のAI領域のエコシステムでは、主要なプレーヤーは大まかに次のように分けることができます:

需要側から始めると、業界のさまざまな段階でのコンピューティングパワーの需要には明らかな違いがあります。基盤となるモデルの開発を例に取ると、事前トレーニングプロセスには非常に高い並列計算、ストレージ、通信などが必要で、トレーニング結果の効果を確保するためには大規模なコンピューティングパワークラスタが必要です。現在、コンピューティングパワーの主な供給源は、主に自社構築のコンピュータールームや集中型クラウドサービスプラットフォームに依存しています。モデルの微調整段階、リアルタイム推論、アプリケーション開発の後の段階では、並列計算とノード間通信への要件はそれほど高くありません。これが分散型コンピューティングパワーがその全ての潜在能力を発揮することができる正にその場です。

これまでにかなりの人気を博したプロジェクトを見てみると、Akash Neworkは分散コンピューティングパワーの方向にいくつかの試みを行ってきました:

Akash Networkは、異なる技術コンポーネントを組み合わせて、ユーザーが分散型クラウド環境で効率的かつ柔軟にアプリケーションを展開および管理できるようにします。ユーザーは、Dockerコンテナ技術を使用してアプリケーションをパッケージ化し、その後、Akashが提供するクラウドリソース上でCloudMOSを介してKubernetesを通じて展開およびスケーリングすることができます。Akashは「逆オークション」アプローチを採用しており、これにより価格が従来のクラウドサービスよりも低くなっています。

Akash Networkは、今年8月にメインネットワークの第6弾アップグレードを発表し、クラウドサービスにGPUのサポートを組み込み、将来的にさらに多くのAIチームにコンピューティングパワーを提供することを発表しました。

業界で今年注目を集めたプロジェクトであるGensyn.aiは、a16zによって主導され、4300万ドルのシリーズA資金調達を完了しました。これまでに公開された文書から判断すると、このプロジェクトは、PolkadotネットワークのL1 PoSプロトコルに基づくメインネットワークであり、ディープラーニングに焦点を当てています。これは、グローバルなスーパーコンピューティングクラスターネットワークを作成することで、機械学習の限界を em すことを目指しています。このネットワークは、余剰のコンピューティングパワーを持つデータセンターから、個人のGPU、カスタムASIC、SoCなどを潜在的に貢献できるPCまでのデバイスを接続します。

分散コンピューティングパワーに現在存在する問題のいくつかを解決するために、Gensynは学術界の新しい理論研究成果を活用しています:

  1. 確率的学習証明を採用し、つまり、勾配ベースの最適化プロセスのメタデータを使用して関連するタスク実行の証明を構築して検証プロセスを高速化する;

  2. グラフベースのピンポイントプロトコル、GPPは、DNN(Deep Neural Network)のオフライン実行とブロックチェーン上のスマートコントラクトフレームワークを接続し、ハードウェアデバイス間で簡単に発生する不整合を解決し、検証の一貫性を確保します。

  3. Truebitに類似したインセンティブ手法は、ステーキングと罰則の組み合わせを通じて、経済的合理的参加者が正直に割り当てられたタスクを遂行することを可能にするインセンティブシステムを構築します。このメカニズムは、暗号技術とゲーム理論の手法を使用しています。この検証システムは、大規模なモデルトレーニング計算の整合性と信頼性を維持するために不可欠です。

ただし、上記の内容は、プロジェクト文書の主なハイライトとしてモデルトレーニング機能を実現するための分散型コンピューティング能力ではなく、タスク完了検証レベルの解決に関するものであり、特に並列コンピューティングと分散ハードウェア間の通信、同期、およびその他の問題の最適化に関するものであることは注目に値します。現在、ネットワーク遅延 (Latency) と帯域幅 (Bandwidth) の影響を受け、ノード間の頻繁な通信により、反復時間と通信コストが増加します。これでは、実際の最適化がもたらされないだけでなく、トレーニングの効率が低下します。モデルトレーニングでノード通信と並列計算を処理するGensynのアプローチには、計算の分散性を管理するための複雑な調整プロトコルが含まれる場合があります。しかし、より詳細な技術情報や具体的な手法の理解が深まらなければ、Gensynがネットワークを通じて大規模なモデル学習を実現する正確なメカニズムは、プロジェクトが稼働するまで明らかになりません。

また、AI、レンダリング、科学研究にコンピューティングパワーを適用するためにブロックチェーン技術を利用するEdge Matrix Computing(EMC)プロトコルにも注意を払いました。AI eコマースアクセスなどのシナリオにタスクが異なるコンピューティングパワーノードに分散されるため、この方法はコンピューティングパワーの効率を向上させるだけでなく、データ転送のセキュリティも確保します。同時に、ユーザーがコンピューティングリソースにアクセスし交換できるコンピューティングパワーマーケットを提供します。これにより、開発者はより迅速に展開しユーザーに到達することができます。Web3の経済形態と組み合わせることで、コンピューティングパワープロバイダーはユーザーの実際の使用に基づいて実際の利益とプロトコルパーティの補助金を得ることもでき、AI開発者は推論とレンダリングのコストを抑えることができます。以下はその主要な構成要素と機能の概要です。

GPUベースのRWA製品も登場することが予想されています。その鍵は、元々コンピュータールームに固定されていたハードウェアを活性化し、RWAの形で分割して循環させることで追加の流動性を得ることです。高品質のGPUは、RWAの基礎資産として使用できます。その理由は、コンピューティングパワーはAI分野において硬貨と見なすことができるからです。現在、供給と需要の間に明らかな矛盾があり、この矛盾は短期間で解決されることはないため、GPUの価格は比較的安定しています。

また、IDCのコンピュータールームを展開してコンピューティングパワークラスターを実装することも、EMCプロトコルの重要な部分です。これにより、GPUが統一された環境で動作するだけでなく、モデルの事前トレーニングなどの関連する大規模なコンピューティングパワー消費タスクをより効率的に処理できます。これは、プロのユーザーのニーズに応えます。同時に、IDCのコンピュータールームは多数のGPUを集中してホストおよび実行することもでき、同じタイプの高品質ハードウェアの技術仕様を確実にし、それらをRWA製品として市場にパッケージ化しやすくします。DeFiの新しいアイデアを開拓します。

近年、学術界ではエッジコンピューティング分野で新しい技術理論やアプリケーション実践も発展しています。クラウドコンピューティングの補完と最適化として、エッジコンピューティングは人工知能の一部であり、クラウドからエッジ、さらにはますます小型のIoTデバイスへと加速しています。これらのIoTデバイスは通常小さく、そのため、消費電力、レイテンシー、および精度などの問題に対応するために軽量機械学習が好まれています。

Network3は、世界中のAI開発者にAIモデルのアルゴリズム最適化や圧縮、フェデレーテッドラーニング、エッジコンピューティング、プライバシーコンピューティングを提供するための専用のAI Layer2を構築することで構築されています。彼らがモデルの訓練や検証を迅速かつ便利に、効率的に行うのを支援するサービスを提供します。多数のスマートIoTハードウェアデバイスを利用することで、対応するコンピューティングパワーを提供する小さなモデルに焦点を当てることができ、TEE(Trusted Execution Environment)を構築することで、ユーザーは関連するデータのプライバシーとセキュリティを確保しながら、モデルの勾配をアップロードするだけで関連するトレーニングを完了することができます。

要約する

• AIやその他の分野の発展により、多くの産業が基本ロジックで大きな変化を経験し、コンピューティングパワーはより重要な位置に上昇し、それに関連するさまざまな側面も産業で広範な探索を引き起こすでしょう。分散型コンピューティングパワーネットワークは、独自の利点を持ち、中央集権化のリスクを減らすことができ、また中央集権化されたコンピューティングパワーの補完としても機能することができます。

• そして、AI分野のチームも岐路に立たされています。大規模な訓練済みモデルを使用して独自の製品を開発するか、それぞれの地域で大規模なモデルの訓練に参加するかどうかの選択は、ほとんどが弁証法的です。したがって、分散コンピューティングパワーはさまざまなビジネスニーズに対応できます。この発展トレンドは歓迎されており、技術の更新とアルゴリズムの繰り返しにより、必然的に主要分野での突破口が生まれるでしょう。

• 怖がらず、ゆっくりと考えてみてください。

リファレンス

https://www.semianalysis.com/p/gpt-4-architecture-infrastructure

https://medium.com/render-token/render-network-q2-highlights-part-2-network-statistics-ac5aa6bfa4e5

https://know.rendernetwork.com/

https://medium.com/livepeer-blog/an-overview-of-the-livepeer-network-and-lpt-44985f9321ff

https://www.youtube.com/watch?v=FDA9wqZmsY8

https://mirror.xyz/1kx.eth/q0s9RCH43JCDq8Z2w2Zo6S5SYcFt9ZQaRITzR4G7a_k

https://mirror.xyz/gensyn.eth/_K2v2uuFZdNnsHxVL3Bjrs4GORu3COCMJZJi7_MxByo

https://docs.gensyn.ai/litepaper/#solution

https://a16zcrypto.com/posts/announcement/investing-in-gensyn/

https://www.pinecone.io/learn/chunking-strategies/

https://akash.network/blog/the-fast-evolving-ai-landscape/

https://aws.amazon.com/cn/blogs/compute/amazon-ec2-p4d-instances-deep-dive/

https://manual.edgematrix.pro/emc-network/what-is-emc-and-poc

https://arstechnica.com/gaming/2022/09/the-end-of-ethereum-mining-could-be-a-bonanza-for-gpu-shoppers/

免責事項:

  1. この記事は[から転載されましたPANews]. すべての著作権は元の著者に帰属します [フューチャーキャンパス]。If there are objections to this reprint, please contact the ゲート ラーンチームが速やかに対処します。
  2. 免責事項:この記事で表現されている意見や考えは、著者個人のものであり、いかなる投資アドバイスを意味するものではありません。
  3. その記事の翻訳はGate Learnチームによって行われます。特に断りがない限り、翻訳された記事のコピー、配布、または盗用は禁止されています。
Начните торговать сейчас
Зарегистрируйтесь сейчас и получите ваучер на
$100
!