公開ブロックチェーンの出現は、コンピュータサイエンスの歴史における最も重要な進歩の一つです。しかし、人工知能の開発は、そして既に、私たちの世界に深い影響を与えています。ブロックチェーン技術が取引決済、データ保管、システム設計の新しいテンプレートを提供する一方で、人工知能は計算、分析、コンテンツ配信の革命です。両産業のイノベーションは、これからの数年間に両方の採用を加速させる可能性のある新しいユースケースを開拓しています。このレポートでは、暗号資産と人工知能の統合に焦点を当て、両者の力を活かそうとする新しいユースケースに焦点を当てています。具体的には、分散型コンピューティングプロトコル、ゼロ知識機械学習(zkML)インフラストラクチャ、AIエージェントを開発しているプロジェクトについて調査しています。
暗号資産は、許可なく、信頼できず、合成可能な決済レイヤーをAIに提供します。これにより、分散型コンピューティングシステムを通じてハードウェアをより利用しやすくするなどのユースケースが可能になります。価値の交換を必要とする複雑なタスクを実行できるAIエージェントを構築し、シビル攻撃やディープフェイクと戦うための身元確認ソリューションを開発することも可能です。AIは、Web 2で見られる多くの利点を暗号資産にもたらします。これには、大規模言語モデル(ChatGPTやCopilotの特別なトレーニングバージョン)によるユーザーエクスペリエンス(UX)の向上が含まれます。さらに、スマートコントラクトの機能と自動化を大幅に改善する可能性もあります。ブロックチェーンは、AIが必要とする透明なデータ豊富な環境です。しかし、ブロックチェーンには計算能力に限界があり、AIモデルを直接統合する障害となっています。
暗号資産とAIが交差する実験と最終的な採用の背後にある推進力は、暗号資産の最も有望なユースケースの多くを駆動するものと同じです - 許可されていないトラストレスな調整レイヤーへのアクセスが価値の移転をより良く促進します。巨大なポテンシャルを考えると、この分野の参加者は、両技術が交わる基本的な方法を理解する必要があります。
人間の推論および問題解決能力を模倣するために計算と機械を使用する人工知能です。
ニューラルネットワークはAIモデルの一つのトレーニング方法です。入力を離散的なアルゴリズムの層を通して実行し、望ましい出力が生成されるまでそれらを洗練します。ニューラルネットワークは、出力を変更するために修正できる重みを持つ方程式で構成されています。彼らは正確な出力を得るために信じられないほどの量のデータと計算を必要とすることがあります。それは、AIモデルが開発される最も一般的な方法の1つです(ChatGPTは、「暗号資産」を利用したニューラルネットワークプロセスを使用しています。変形ロボット)
トレーニングは、ニューラルネットワークや他のAIモデルが開発されるプロセスです。入力を正しく解釈し、正確な出力を生成するために、モデルをトレーニングするためには大量のデータが必要です。トレーニングプロセス中、モデルの重みは満足のいく出力が生成されるまで継続的に修正されます。トレーニングには非常に高いコストがかかることがあります。例えば、ChatGPTは使用します数万台の独自のGPUを処理するために使用しています。リソースが少ないチームは、Amazon Web Services、Azure、Google Cloud Providersなどの専用のコンピュートプロバイダーに頼ることがよくあります。
推論は、AIモデルを実際に使用して出力や結果を得ることです(たとえば、ChatGPTを使用して、暗号資産とAIの交差点に関する論文のアウトラインを作成する場合など)。推論はトレーニングプロセス全体および最終製品で使用されます。トレーニングが完了した後でも、計算コストが高くなるため、実行するのにコストがかかる場合がありますが、トレーニングよりも計算コストが低いです。
ゼロ知識証明(ZKP)は、基礎となる情報を明らかにせずに主張の検証を可能にします。これは、プライバシーとスケーリングの2つの主要な理由で暗号通貨で役立ちます。プライバシーに関しては、これによりユーザーが財布にいくらのETHがあるかのような機密情報を明らかにせずに取引を行うことができます。スケーリングに関しては、オフチェーン計算が再実行するよりも迅速にオンチェーンで証明されることを可能にします。これにより、ブロックチェーンやアプリケーションがオフチェーンで安価に計算を実行し、その後オンチェーンで検証することができます。ゼロ知識とそのEthereum Virtual Machineでの役割の詳細については、Christine Kimのレポートを参照してください。zkEVMs: イーサリアムのスケーラビリティの未来.
AIと暗号資産の交差点にあるプロジェクトは、スケールでのオンチェーンAIインタラクションをサポートするために必要な基盤をまだ構築中です。
分散コンピュートマーケットプレイスは、主にグラフィック処理ユニット(GPU)の形で提供される大量の物理ハードウェアを供給するために台頭しています。これらの両面市場は、リースおよびリースを検討している人々を結び付け、コンピュートの価値の移転と検証を促進します。分散コンピューティングでは、追加の機能を提供するいくつかのサブカテゴリが台頭しています。両面市場に加えて、このレポートでは、検証可能なトレーニングおよび微調整の出力を提供する機械学習トレーニングプロバイダや、コンピュートとモデル生成を接続して人工汎用知能(AGI)を達成するプロジェクトについても検証します。これは、知能インセンティブネットワークと呼ばれることが多いものです。
zkMLは、コスト効果が高く、迅速に検証可能なモデル出力を提供したいプロジェクトの注目の新興分野です。これらのプロジェクトは主に、アプリケーションが重い計算要求をオフチェーンで処理し、その後、オフチェーンの作業が完了し正確であることを証明する検証可能な出力をオンチェーンに投稿することを可能にします。zkMLは、現在の実装ではコストがかかり、時間がかかりますが、解決策としてますます使用されています。これは、zkMLプロバイダーとDeFi/Gamingアプリケーションの間での統合の数が増えていることから明らかです。これらのアプリケーションは、AIモデルを活用したいと考えています。
コンピュートの豊富な供給とそれをチェーン上で検証する能力は、オンチェーンのAIエージェントの扉を開きます。 エージェントはユーザーの代わりにリクエストを実行できる訓練されたモデルです。 エージェントは、ユーザーがチャットボットに話しかけるだけで複雑な取引を実行できるようにすることで、オンチェーンの体験を大幅に向上させる機会を提供します。 しかし、現在のエージェントプロジェクトは、まだインフラストラクチャやツーリングの開発に焦点を当てています。
AIは、モデルのトレーニングと推論の実行の両方に大量の計算が必要です。過去10年間、モデルがより洗練されるにつれて、計算要件は指数関数的に増加してきました。例えば、OpenAIは、見つけました2012年から2018年までの間、そのモデルの計算要件は2年ごとから3.5か月ごとに倍増しました。これにより、一部の暗号資産マイナーを含むGPUへの需要が急増しました。GPUを再利用するクラウドコンピューティングサービスを提供する(@jeff.washington/2024-02-06-solana-mainnet-beta-outage-report-619bd75b3ce0">read more about this in our annual Bitcoin mining report). As competition to access compute increases and costs rise, several projects are utilizing 暗号資産 to provide decentralized compute solutions. They offer on-demand compute at competitive prices so that teams can affordably train and run models. The tradeoff, in some cases, can be performance and security.
最新のGPU、例えば それらが生産されたNvidiaによって製造されたGPUは、高い需要があります。9月には、Tether取得されたドイツのビットコインマイナーであるNorthern Dataの株式にお金を出して、報道によると、10,000台のH100 GPU(AIトレーニング向けの最も先進的なGPUの1つ)を4億2000万ドルで買収したとされています。待つベストインクラスのハードウェアの納期は少なくとも6ヶ月かかることがあり、多くの場合、それ以上かかることもあります。さらに悪いことに、企業はしばしば使用しないかもしれないコンピュート量のために長期契約にサインする必要があります。これにより、市場で利用可能なコンピュートがあるにもかかわらず、市場で利用できない状況が生じる可能性があります。分散型コンピュートシステムはこれらの市場の非効率性に対処し、コンピュートの所有者が余剰容量をいつでもサブリースできる二次市場を作り出して、新しい供給を解放します。
競争力のある価格設定とアクセス性に加えて、分散型コンピューティングの重要な価値提案は検閲への耐性です。最先端のAI開発は、コンピューティングとデータへの比類のないアクセスを持つ大手テクノロジー企業によってますます支配されています。で強調された最初の重要なテーマは、AI指数レポート2023年の年次報告書によると、業界はAIモデルの開発において学界をますます凌駕しており、その中心的な制御権をわずかなテクノロジーリーダーの手に集約しています。これにより、彼らがAIモデルの基盤となる規範や価値観を決定する上で過度な影響力を持つ能力について懸念が高まっています、特に規制に続いて。プッシュこれらの同じテクノロジー企業によって、彼らのコントロール外でのAI開発を抑制するために
過去数年間に、分散型コンピューティングのためのいくつかのモデルが登場し、それぞれが独自の焦点とトレードオフを持っています。
Akash、io.net、iExec、Cudosなどのプロジェクトは、AIトレーニングおよび推論のための専門コンピューティングに加えて、データおよび一般的なコンピューティングソリューションへのアクセスを提供する、または近日提供する、分散コンピューティングアプリケーションです。
Akashは現在、唯一の完全オープンソースの「スーパークラウド」プラットフォームです。Cosmos SDKを使用したステークネットワークで、AkashのネイティブトークンであるAKTはネットワークのセキュリティを確保し、支払い手段として、そして参加を奨励するために使用されています。Akashは2020年に最初のメインネットを立ち上げ、最初はストレージやCPUリースサービスを特色とする許可なしのクラウドコンピュートマーケットプレイスの提供に焦点を当てました。2023年6月、Akash開始GPUに焦点を当てた新しいテストネットおよび9月開始そのGPUメインネットは、ユーザーがAIトレーニングや推論のためにGPUをリースできるようにしています。
Akashエコシステムには、テナントとプロバイダーの2つの主要なアクターがいます。テナントは、計算リソースを購入したいAkashネットワークのユーザーです。プロバイダーは計算リソースの供給業者です。テナントとプロバイダーをマッチングさせるために、Akashは逆オークションプロセスに依存しています。テナントは計算要件を提出し、その中でサーバーの場所や計算を実行するハードウェアの種類などの条件を指定し、支払いたい金額を指定できます。プロバイダーはその後、自分の価格を提示し、最も低い入札がその仕事を受けることになります。
Akashバリデーターは、ネットワークの整合性を維持します。バリデーターセットは現在100に制限されており、時間の経過とともに段階的に増加する予定です。AKTのステーク量が最も少ない現在のバリデーターよりも多くのAKTをステーキングすることで、誰でもバリデーターになることができます。AKT保有者は、AKTをバリデーターに委任することもできます。ネットワークの取引手数料とブロック報酬はAKTで分配されます。さらに、リースごとに、Akashネットワークはコミュニティによって決定されたレートで「テイクフィー」を獲得し、AKT保有者に分配されます。
分散コンピューティングマーケットは、既存のコンピューティングマーケットの非効率を補完することを目指しています。供給制約は、企業が必要以上のコンピューティングを蓄積するように導いており、クラウドプロバイダーとの契約構造により供給がさらに制約されています。この契約は、必要なくなった場合でも継続的なアクセスが必要とされるため、長期契約に顧客を拘束します。分散コンピューティングプラットフォームは、需要されるコンピューティングを持つ世界中の誰もが供給者になれるように新しい供給を開放します。
AIトレーニング用のGPUに対する需要の急増が、Akashでの長期的なネットワーク使用につながるかどうかは、まだわかりません。Akash は長い間 CPU のマーケットプレイスを提供しており、たとえば、中央集権的な代替手段として同様のサービスを提供しています。70-80%割引。ただし、価格の引き下げにもかかわらず、大幅な採用率にはつながっていません。ネットワーク上のアクティブなリースは横ばいで、2023年第2四半期にはコンピュートのみ33%、メモリのみ16%、ストレージのみ13%の平均値にとどまっています。これらはオンチェーン採用における印象的な指標です(参考までに、主要なストレージプロバイダーのFilecoinは持っていました12.6%のストレージ利用2023年第3四半期)、これらの製品に対する需要を上回る供給が続いていることを示しています。
AkashがGPUネットワークを立ち上げてからちょうど半年以上が経過しており、長期的な採用を正確に評価するにはまだ早い段階です。需要の兆候として、これまでの平均GPU利用率は44%で、CPU、メモリ、ストレージよりも高いです。これは主に最高品質のGPU(A100など)への需要によるもので、 90%leased out.
Akashへの日々の支出も増加しており、特にCPUの利用が増加していますが、これは主に新しいGPUの利用の結果であり、ほぼ2倍になりました。
価格は、Lambda CloudやVast.aiなどの中央集権的競合他社とほぼ同じか、いくらか高い場合もあります。H100やA100sなどの最高クラスのGPUに対する驚異的な需要は、そのような機器の大半の所有者が競争価格に直面するマーケットプレイスにリストを掲載する興味がほとんどないことを意味します。
初期の関心は有望ですが、採用には障壁が残っています(以下でさらに議論されています)。分散型コンピュートネットワークは、需要と供給の両方を生み出すためにさらに取り組む必要があり、チームは新しいユーザーをどのように引き付けるかを試行しています。たとえば、2024年初頭には、Akashが通過しました 提案240GPUサプライヤー向けのAKTのエミッションを増やし、より多くの供給を促進することを目指し、特に高級GPUをターゲットにしています。チームはまた、見込みユーザーにネットワークのリアルタイムの機能を実証するための概念実証モデルの展開に取り組んでいます。Akashはトレーニング彼ら自身の基本モデルを持ち、すでにローンチしていますチャットボットそして画像生成Akash GPU を使用して出力を作成するオファリング。同様に、io.net は開発されました安定した拡散モデルを展開しています新しいネットワーク機能従来のGPUデータセンターのパフォーマンスとスケールをよりよく模倣する
AI のニーズに対応できる汎用コンピューティング プラットフォームに加えて、機械学習モデルのトレーニングに重点を置いた一連の専門の AI GPU プロバイダーも登場しています。例えば、Gensynは「調整「電気とハードウェアを使って集合知を構築する」という考え方で、「誰かが何かを訓練したいと思い、誰かがそれを訓練することを望んでいるなら、その訓練が実現するべきだ」という考え方です。
プロトコルには、提出者、ソルバー、検証者、および告発者の4つの主要なアクターがいます。 提出者はトレーニングリクエストを伴うタスクをネットワークに提出します。 これらのタスクには、トレーニング目標、トレーニングするモデル、およびトレーニングデータが含まれます。 提出プロセスの一環として、提出者は、ソルバーから必要とされる推定コンピューティングのために事前に手数料を支払います。
提出されると、タスクはモデルの実際のトレーニングを行うソルバーに割り当てられます。その後、ソルバーは完了したタスクを検証者に提出し、トレーニングが正しく行われたことを確認する責任があります。告発者は、検証者が正直に行動するように確認する責任があります。告発者がネットワークに参加するようインセンティブを与えるために、Gensynは定期的に目的を持って不正確な証拠を提供し、それらを見破った告発者に報酬を与える予定です。
AI関連のワークロードの計算を提供することを超えて、Gensynの主要な価値提案は、まだ開発中の検証システムです。検証は、GPUプロバイダによる外部計算が正しく実行されることを確認するために必要です(つまり、ユーザーのモデルが望む方法でトレーニングされていることを保証するためです)。 Gensynは、新しい検証手法である「確率的学習の証明、グラフベースのピンポイントプロトコル、Truebitスタイルのインセンティブゲーム」を活用して、この問題に取り組んでいます。これは、検証者がソルバーがモデルを正しく実行したことを確認できる楽観的な解決モードであり、完全に再実行する必要がある高コストで効率の悪いプロセスを行うことなく、検証者がソルバーがモデルを正しく実行したことを確認できるようにします。
革新的な検証方法に加えて、Gensynは請求中央集権的な代替手段や暗号競合他社に比べてコスト効率が良く、AWSよりも最大80%安くMLトレーニングを提供し、Truebitなどの類似プロジェクトをテストで上回る。
これらの初期結果が分散型ネットワーク全体でスケールされて再現可能かどうかはまだ見定められていません。Gensynは、小規模データセンターや小売ユーザーなどのプロバイダーからの余剰計算リソースを活用したいと考えており、将来的には携帯電話のようなより小さなモバイルデバイスからも利用したいとしています。ただし、Gensynチーム自体が認めた, 異種のコンピュート・プロバイダーに依存することは、いくつかの新しい課題をもたらします。
Google Cloud Providers や Coreweave などの中央集権型プロバイダーの場合、コンピューティングは高価ですが、そのコンピューティング間の通信(帯域幅とレイテンシ)は安価です。これらのシステムは、ハードウェア間の通信を可能な限り迅速に行えるように設計されています。Gensynは、そのフレームワークをひっくり返し、世界中の誰もがGPUを提供できるようにすることでコンピューティングコストを削減しますが、ネットワークが遠く離れた場所にある異種ハードウェア間でコンピューティングジョブを調整する必要があるため、通信コストが増加します。Gensynはまだローンチされていませんが、分散型機械学習トレーニングプロトコルの構築に関して何が可能かを示す概念実証です。
分散型コンピューティングプラットフォームは、人工知能の創造方法におけるデザインの可能性も開くようになっています。Bittensorは、Substrate上に構築された分散型コンピューティングプロトコルです。答えようとしています「AIをどのように協力的なアプローチに変えることができるか?」という問題について、Bittensorは人工知能の生成を分散化し、商品化することを目指しています。2021年に立ち上げられたこのプロトコルは、協力的な機械学習モデルの力を活用して、継続的に改善された人工知能を生み出すことを目指しています。
Bittensorは、ビットコインからインスピレーションを得ており、ネイティブ通貨TAOの供給量は2100万であり、4年ごとのハーフィングサイクル(最初のハーフィングは2025年に行われます)があります。ブロック報酬を獲得するために正しいナンスを生成するためには、プルーフ・オブ・ワークを使用せず、マイナーは「プルーフ・オブ・インテリジェンス」を利用し、推論リクエストに応答するための出力を生成するモデルを実行する必要があります。
Bittensor は当初、アウトプットの生成に Mixture of Experts (MoE) モデルに依存していました。推論要求が送信されると、MoE モデルは、1 つの一般化されたモデルに依存するのではなく、特定の入力の種類に対して最も正確なモデルに推論要求を中継します。建設プロセスのさまざまな側面(例:建築家、エンジニア、画家、建設作業員など)のためにさまざまな専門家を雇う家を建てることを考えてみてください。MoE はこれを機械学習モデルに適用し、入力に応じて異なるモデルの出力を利用しようとします。Bittensorの創設者であるAla Shaabanaとして説明された, それは「賢い人々の部屋に話しかけ、最良の答えを得ること」というようなものです。チャレンジ適切なルーティング、メッセージの適切なモデルへの同期、インセンティブ付与を確実にすることで、このアプローチはプロジェクトがより発展するまでおざなりにされています。
Bittensorネットワークには、バリデーターとマイナーの2つの主要なアクターが存在します。バリデーターは推論リクエストをマイナーに送信し、その出力をレビューし、その応答の品質に基づいてランク付けします。彼らのランキングが信頼性があることを保証するために、バリデーターには他のバリデーターのランキングとどの程度一致するかに基づいて「vtrust」スコアが与えられます。バリデーターのvtrustスコアが高いほど、より多くのTAOエミッションを獲得します。これは、時間の経過とともにモデルのランキングについて合意に達するバリデーターが増えれば増えるほど、個々のvtrustスコアが高くなるようにバリデーターにインセンティブを与えることを意図しています。
マイナー、またはサーバーとも呼ばれるネットワーク参加者は、実際の機械学習モデルを実行する参加者です。マイナーは、与えられたクエリのために最も正確な出力を検証者に提供するためにお互いに競い、その出力が正確であるほど、より多くのTAOエミッションを獲得します。マイナーは、その出力を好きなように生成することができます。たとえば、将来のシナリオでは、Bittensorのマイナーが以前にGensynで訓練されたモデルを使用してTAOエミッションを獲得することが完全に可能です。
今日、ほとんどのやりとりは、バリデータとマイナーとの間で直接行われます。 バリデータはマイナーに入力を提出し、アウトプット(つまり、モデルのトレーニング)をリクエストします。 バリデータがネットワーク上のマイナーにクエリを送信し、その回答を受け取った後、そのマイナーをランク付けしてそのランキングをネットワークに提出します。
このPoSに依存する検証者とPoWの一形態であるProof of Modelに依存するマイナーとの相互作用は、ユマコンセンサスと呼ばれます。これは、マイナーが最高のアウトプットを生成してTAOエミッションを獲得し、検証者がマイナーのアウトプットを正確にランク付けしてより高いvtrustスコアを獲得し、TAO報酬を増やすことを目指しています。これにより、ネットワークのコンセンサスメカニズムが形成されます。
Bittensor上の相互作用は主に、バリデータがマイナーにリクエストを送信し、その出力を評価することで構成されています。ただし、貢献するマイナーの質が向上し、ネットワーク全体の知能が向上するにつれて、Bittensorは既存のスタックの上にアプリケーション層を作成し、開発者がBittensorネットワークにクエリを送信するアプリケーションを構築できるようにします。
2023年10月、Bittensorはこれを達成するための重要な一歩を完了しました導入Revolutionアップグレードを通じてサブネットの数を増やしました。サブネットは、特定の行動をインセンティブにするBittensor上の個々のネットワークです。Revolutionは、サブネットの作成に興味を持つすべての人にネットワークを開放します。リリース後の数ヵ月で、32サブネットtext prompting、data scraping、image generation、およびストレージ用のものを含む、いくつかのが立ち上げられました。サブネットが成熟し、製品の準備が整うにつれて、サブネットの作成者はアプリケーションの統合も行います。これにより、チームは特定のサブネットをクエリするアプリケーションを構築できます。一部のアプリケーション(チャットボット、画像ジェネレータ, twitter返信ボット, 予測市場)現在は存在しますが、ビットテンサー財団からの助成金以外に、検証者がこれらのクエリを受け入れて中継するための公式なインセンティブはありません。
より明確な説明をするために、アプリケーションがネットワークに統合された場合、Bittensorがどのように機能するかの例を示します。
サブネットは、そのパフォーマンスに基づいて評価されたTAOを獲得します。ルートネットワーク. ルートネットワークは、すべてのサブネットの上に位置し、実質的に特別な種類のサブネットとして機能し、ステークによって管理される64大規模なサブネットバリデータによって管理されます。 ルートネットワークのバリデータは、サブネットのパフォーマンスに基づいてランク付けを行い、定期的にTAOエミッションをサブネットに配布します。 このようにして、個々のサブネットはルートネットワークのマイナーとして機能します。
Bittensorは、プロトコルの機能を拡張し、複数のサブネットで知能生成をインセンティブ化するために苦労しています。マイナーは、ネットワークへの攻撃を試み、より多くのTAO報酬を得るための新しい方法を考案し続けています。たとえば、少し修正モデルによって高く評価された推論の出力を提出し、複数の変化を提出する。ネットワーク全体に影響を与えるガバナンス提案は、提出および実装されることができます。三頭政治、完全にOpentensor Foundationの利害関係者から構成されています(提案にはBittensorの承認が必要であることに注意してください上院Bittensorのバリデータから構成されます。また、プロジェクトのトークノミクスは、サブネット間でTAOの利用を促進するために改善されるプロセスにあります。このプロジェクトは、ユニークなアプローチで急速に注目を集めており、最も人気のあるAIウェブサイトのCEOもその一つです。HuggingFaceBittensorは、そのリソースをウェブサイトに追加すべきであると示しています。
最近公開された部分Bittensor Paradigmと呼ばれるコア開発者によって、チームはBittensorが最終的に「何が測定されているかに無関心であること」を進化させるビジョンを提示しています。理論上、これにより、BittensorはTAOによって支えられたあらゆる種類の行動をインセンティブ付けするサブネットを開発できる可能性があります。これらのネットワークがそのような多様なプロセスを処理するためにスケーリングできること、および基盤となるインセンティブが中央集権的な提供物を凌駕する進歩をもたらすことを実証するという重要な実践的な制約が残っています。
上記のセクションでは、開発中のさまざまな種類の分散型人工知能計算プロトコルの概要を高レベルで提供しています。開発と採用の初期段階ではありますが、これらは最終的に「AIビルディングブロック」の作成を容易にするエコシステムの基盤を提供しています。パーミッションレス・ブロックチェーンの可組成性により、各プロトコルが互いに積み重ねてより包括的な分散型人工知能エコシステムを提供する可能性が開かれています。
例えば、Akash、Gensyn、およびBittensorがすべて相互作用して推論リクエストに応答する方法の一つがこちらです。
はっきり言っておきますが、これは単に将来可能性があるものの例であり、現在のエコシステム、既存のパートナーシップ、または予想される結果を表すものではありません。相互運用性への制約や、以下で説明するその他の考慮事項により、現在は統合の可能性がかなり制限されています。さらに、流動性の断片化や複数のトークンの使用の必要性は、ユーザーエクスペリエンスに悪影響を及ぼす可能性があります。指摘されました両方のAkashとBittensorの創設者によって
コンピューティングに加えて、暗号資産の新興AIエコシステムをサポートするために展開されている他のいくつかの分散型インフラサービスがあります。すべてをリストアップするのはこのレポートの範囲外ですが、いくつか興味深いおよび説明的な例があります。
これらは、集中型市場モデルを探るための無限の機会を示しており、AIモデルをサポートするか、それらを開発するために必要な周辺インフラを支援します。現時点では、これらのプロジェクトはほとんど概念実証段階にあり、包括的なAIサービスを提供するために必要なスケールで運営できることを実証するためには、さらに多くの研究と開発が必要です。
分散コンピューティングの提供はまだ開発の初期段階にあります。彼らは、最も強力なAIモデルのトレーニングが可能な最新のコンピュートにアクセスする展開を始めたばかりです。彼らが意味のある市場シェアを獲得するためには、中央集権化された代替手段と比較して実用的な利点を示す必要があります。より広範な採用のための潜在的なトリガーには、以下が含まれます:
スマート契約は、任意のブロックチェーンエコシステムの中核をなす構築ブロックです。特定の条件が設定されると、自動的に実行され、信頼できる第三者の必要性を減らすか排除し、DeFiで見られるような複雑な分散型アプリケーションの作成を可能にします。ただし、ほとんどの場合、現在のスマート契約は、更新する必要がある事前設定パラメーターに基づいて実行されるという点で機能が制限されています。
例えば、貸借プロトコルスマートコントラクトは、特定の貸借価値比率に基づいてポジションをいつリキデートするかの仕様で展開されます。静的な環境では有用ですが、リスクが絶えず変動する動的な状況では、これらのスマートコントラクトはリスク許容度の変化を考慮に入れるために継続的に更新する必要があります。これにより、集中型プロセスを介して管理されていない契約にとっては、課題が生じます。例えば、分散型ガバナンスプロセスに依存するDAOは、システムリスクに対応するために十分に迅速に反応できないかもしれません。
AI(つまり、機械学習モデル)を統合するスマート契約は、機能性、セキュリティ、効率を向上させ、全体的なユーザーエクスペリエンスを向上させる可能性がある方法の1つです。 ただし、これらの統合は追加のリスクをもたらすこともあり、これらのスマート契約の基盤となるモデルが悪用されることがないことを保証したり、ロングテールの状況を考慮したりすることは不可能です(これらの状況は、機械学習モデルにとって notoriously hard なトレーニング状況です)。データ入力の不足for them).
機械学習は複雑なモデルを実行するために大量の計算能力が必要であり、これにより高コストのため、AIモデルをスマート契約内で直接実行することができません。例えば、利回りを最適化するモデルへのアクセスを提供するDeFiプロトコルは、そのモデルをオンチェーンで実行する際に過高なガス手数料を支払わなければならないため、苦労するでしょう。 一つの解決策は、基礎となるブロックチェーンの計算能力を増やすことです。しかし、これはまた、チェーンの検証者セットに要求を増やすため、分散化の特性を損なう可能性があります。代わりに、いくつかのプロジェクトでは、オンチェーン計算を必要とせずに、信頼性のある方法で出力を検証するためにzkMLの使用を模索しています。
ワン 一般的にzkMLの有用性を示す具体的な例を共有することは、ユーザーが他の誰かにデータをモデルに通す必要があり、同時に相手方が実際に正しいモデルを実行したことを検証する場合です。たとえば、開発者が分散型コンピュートプロバイダーを使用してモデルをトレーニングし、プロバイダーが出力の微妙な違いを示すよりも安価なモデルを使用してコスト削減しようとしているのではないかと心配しています。zkMLを使用すると、コンピュートプロバイダーはデータをモデルに通し、その後チェーン上で検証できる証拠を生成して、与えられた入力に対するモデルの出力が正しいことを証明できます。この場合、モデルプロバイダーは、出力を生成する基盤となる重みを明らかにすることなく、モデルを提供する利点があります。
逆も可能です。ユーザーがデータを使用してモデルを実行したいが、医療検査や独自のビジネス情報などプライバシー上の懸念からモデル提供プロジェクトがデータにアクセスすることを望まない場合、ユーザーはデータを共有せずにモデルを実行し、その後証明書で正しいモデルを実行したことを確認できます。これらの可能性により、AIとスマートコントラクト機能の統合の設計空間が大幅に拡大します。
zkMLの初期段階を考えると、開発は主に、チームがモデルとアウトプットをオンチェーンで検証できる証明に変換するために必要なインフラストラクチャとツールの構築に焦点を当てています。これらの製品は、開発のゼロ知識の側面を可能な限り抽象化しています。
EZKLとギザこのツールを構築する2つのプロジェクトは、機械学習モデルの実行の検証可能な証拠を提供することによってそれを実現しています。両方のプロジェクトは、チームが機械学習モデルを構築するのを支援し、その後、そのモデルがチェーン上で信頼できるように実行できるようにします。両プロジェクトは、TensorFlowやPytorchなどの一般的な言語で書かれた機械学習モデルを標準形式に変換するために、Open Neural Network Exchange(ONNX)を使用しています。その後、それらのモデルのバージョンを出力し、実行時にzk-証明を生成するようにもします。EZKLはオープンソースでzk-SNARKSを生成し、Gizaはクローズドソースでzk-STARKSを生成します。両プロジェクトは現在、EVMとの互換性しかありません。
EZKLは、過去数か月にわたって、主にに焦点を当てたzkMLソリューションの強化において、著しい進展を示してきました。コスト削減,セキュリティーの向上, そして 証明生成の加速例えば、2023年11月には、EZKLは新しいオープンソースGPUライブラリを統合し、証明の総合時間を35%削減し、1月にはEZKL発表されましたEZKL証明システムを使用する際に高性能コンピュートクラスタを統合し、並行ジョブをオーケストレーションするソフトウェアソリューションであるLilith。Gizaは、検証可能な機械学習モデルを作成するためのツールを提供するだけでなく、web3の相当物を実装する予定です。Hugging Face,ユーザーマーケットプレイスを開設し、zkMLコラボレーションとモデル共有を可能にするだけでなく、最終的には分散型コンピュートオファリングを統合する。1月にEZKLがリリースされました。基準評価EZKL、Giza、および以下で議論されたRiscZeroのパフォーマンスを比較する。 EZKLは、より速い証明時間とメモリ使用量を示しました。
Modulus LabsAIモデルに特化した新しいzk-proof技術も開発中です。Modulusは『』という論文を公開しました。知性のコスト(非常に高いコストを示唆している)これは、その当時の既存のzkプルーフシステムをベンチマークにして、AIモデルのzkプルーフを改善するための能力とボトルネックを特定しました。2023年1月に発表されたこの論文は、既存の提供物が単純に大規模なAIアプリケーションを可能にするにはあまりにも高価で効率的でないことを示しています。初期の研究を基にして、Modulusは11月に@ModulusLabs/introducing-modulus-bring-ai-on-chain-d75dcb82c5e3">プロジェクトがモデルをスマートコントラクトに大規模に統合することを経済的に実現可能にすることを目標に、AIモデルのコストと証明時間を削減するために特別に構築された特殊なゼロ知識証明者であるRemainderを導入しました。彼らの研究はクローズドソースであるため、上記のソリューションにベンチマークすることはできませんでしたが、最近Vitalikのブログ投稿暗号資産とAIについて。
暗号資産とインフラの開発は、zkMLスペースの将来の成長にとって重要です。なぜなら、これによりzk回路を展開する必要があるチームにとって、摩擦が大幅に減少するからです。オフチェーン計算を検証可能に実行するためには、機械学習で働くノンクリプトネイティブ・ビルダーが、安全なインタフェースを作成し、モデルをオンチェーンに持ち込むことができるようになります。モデルをオンチェーンに持ち込むことで、真に革新的な用途のアプリケーションの実験が可能になります。ツールはまた、より広範なzkMLの採用における主要な障壁である、ゼロ知識、機械学習、および暗号の交差点で働くことに関心を持ち、知識のある開発者の不足にも対処しています。
開発中の追加ソリューションは、「コプロセッサ」と呼ばれます。RiscZero、アクシオム、儀式. The term coprocessor is mostly semantics – these networks fulfill many different roles, including verifying offchain compute on-chain. As with EZKL, Giza, and Modulus, they aim to completely abstract the zero-knowledge proof generation process, creating essentially zero-knowledge virtual machines capable of executing programs offchain and generating proofs for verification on-chain. RiscZero and Axiom can サービスシンプルなAIモデルは、より汎用のコプロセッサとして意図されている一方、リチュアルはAIモデルとの使用を目的として構築されています。
インファーネットRitualの最初の実体化は、開発者がネットワークに推論リクエストを送信して出力と証拠(オプションで)を受け取ることができるInfernet SDKを含んでいます。Infernetノードはこれらのリクエストを受け取り、計算をオフチェーンで処理して出力を返します。たとえば、DAOは、新しいガバナンス提案が提出される前に特定の事前条件を満たしていることを確認するためのプロセスを作成できます。新しい提案が提出されるたびに、ガバナンス契約は、DAO固有のガバナンストレーニング済みAIモデルを呼び出すInfernetを介した推論リクエストをトリガーします。モデルは提案をレビューし、必要な基準がすべて提出されたことを確認し、出力と証拠を返します。提案の提出を承認するか拒否するかをします。
来年、Ritualチームは、Ritual Superchainと呼ばれる基盤インフラストラクチャレイヤーを形成する追加機能を展開する予定です。以前に議論された多くのプロジェクトは、サービスプロバイダーとしてRitualに接続することができます。すでに、Ritualチームは、証明生成のためにEZKLと統合しており、おそらく近く他の主要なプロバイダーの機能を追加するでしょう。Ritual上のInfernetノードは、Akashやio.netのGPUを使用し、Bittensorのサブネットでトレーニングされたクエリモデルを使用することもできます。彼らの最終目標は、あらゆるネットワークからあらゆるワークロードを通じて機械学習およびその他のAI関連タスクを処理できるオープンAIインフラストラクチャのプロバイダになることです。
zkMLが助けます調和するブロックチェーンとAIの間の矛盾、前者は本質的にリソースに制約があり、後者は大量の計算とデータを必要とします。Gizaの創設者の一人として置いて, “利用例が非常に豊富です...これはまるでEthereumの初期にスマートコントラクトの利用例を尋ねられるようなものです...私たちがやっていることは、スマートコントラクトの利用例を拡大するだけです。” ただし、上記のように、現在の開発は主にツールやインフラのレベルで行われています。アプリケーションはまだ試験的な段階にあり、zkMLを使用してモデルを実装することから生じる価値が、その複雑さとコストを上回ることをチームが証明することに挑戦されています。
今日の一部のアプリケーションには、
zkMLはまだ実験段階にあり、ほとんどのプロジェクトがインフラストラクチャの基本構築と概念の証明に焦点を当てています。現在の課題には、計算コスト、メモリ制限、モデルの複雑さ、ツールやインフラストラクチャの制約、そして開発者の才能が含まれます。単純に言えば、消費者向け製品に必要な規模でzkMLを実装するためには、かなりの作業が必要です。
領域が成熟するにつれて、これらの制限が解決されると、zkMLはAIと暗号資産の統合の重要な構成要素になります。zkMLの本質は、オフチェーンの任意のサイズの計算をオンチェーンに持ち込みながら、計算がオンチェーンで実行された場合と同じかそれに近いセキュリティ保証を維持する能力を約束しています。しかし、そのビジョンが実現するまで、技術の初期利用者は、zkMLのプライバシーとセキュリティと代替手段の効率との間のトレードオフをバランスしなければなりません。
AIと暗号資産のより興奮する統合の1つは、AIエージェントの実験です。 エージェントは、AIモデルを使用してタスクを受け取り、解釈し、実行できる自律型ボットです。 これは、常に利用可能な個人アシスタントで、あなたの好みに合わせて調整されたものから、リスクの好みに応じてポートフォリオを管理および調整する金融エージェントを雇うまで、何でもあります。
エージェントとクリプトは、許可なしで信頼できる支払いインフラを提供するため、うまく組み合わされます。トレーニングを受けた後、エージェントにはウォレットが提供され、スマートコントラクトとの取引が可能になります。例えば、現在のシンプルなエージェントは、インターネットをクロールして情報を収集し、その後モデルに基づいて予測市場で取引を行うことができます。
モーフィアス2024年にイーサリアムとアービトラム市場に登場する最新のオープンソースエージェントプロジェクトの1つです。そのホワイトペーパーは2023年9月に匿名で公開され、(注目すべき人物を含む)コミュニティが形成され、構築される基盤となりました。Erik Vorhees). ホワイトペーパーにはダウンロード可能な スマートエージェントプロトコル, ユーザーのウォレットによって管理され、スマートコントラクトと連携することができるオープンソースのLLMです。スマートコントラクトランクエージェントが、処理されたトランザクションの数などの基準に基づいて、安全にやり取りできるスマートコントラクトを特定するのに役立つ
白書には、スマートエージェントプロトコルを運用するために必要なインセンティブ構造やインフラの構築フレームワークが提供されています。これには、エージェントとやり取りするためのフロントエンドを構築するための貢献者へのインセンティブ、エージェント同士がやり取りできるようにするための開発者向けのAPI、そしてエッジデバイス上でエージェントを実行するために必要なコンピューティングとストレージにアクセスするためのクラウドソリューションが含まれます。プロジェクトの初期資金調達は2月上旬に開始され、完全なプロトコルの立ち上げは24年第2四半期に予定されています。
分散型自律型インフラストラクチャネットワーク(DAIN)Solana上でエージェント間経済を構築する新しいエージェントインフラストラクチャプロトコルです。 DAINの目標は、異なるビジネスのエージェントがユニバーサルAPIを介してシームレスに相互作用できるようにすることで、Web2およびWeb3製品と相互作用できるエージェントの設計空間を大幅に拡大することです。 1月に、DAINは初めての発表を行いました。パートナーシップAsset Shieldを備え、ユーザーがマルチシグに「エージェント署名者」を追加し、取引を解釈し、ユーザーが設定したルールに基づいて承認/拒否することができるようにします。
Fetch.AIは最初のAIエージェントプロトコルの1つであり、FETトークンとを使用して、チェーン上でエージェントを構築、展開、利用するためのエコシステムを開発しました。Fetch.AIウォレット。プロトコルは、エージェントの使用に関する包括的なツールとアプリケーションを提供し、ウォレット機能を備えてエージェントとの対話や注文を行うための機能が含まれています。
Autonolas, Fetchチームの前メンバーを含む創設者がいる、は分散型AIエージェントの作成と利用のためのオープンマーケットプレイスです。 Autonolasは、開発者がホストされたオフチェーンでプラグイン可能なAIエージェントを構築するためのツールセットも提供しており、Polygon、Ethereum、Gnosis Chain、Solanaを含む複数のブロックチェーンに接続できます。現在、いくつかのアクティブなエージェントの概念実証があります。製品予測市場やDAOガバナンスに使用するためを含む。
シンギュラリティネット人々が狭い焦点を当てたAIエージェントを展開し、他の人やエージェントが複雑なタスクを実行するために雇うことができる分散型AIエージェントのマーケットプレイスを構築しています。他の人々も、Gate.ioのようなAlteredStateMachine、はNFTとAIエージェントの統合を構築しています。ユーザーはランダムな属性を持つNFTを作成し、それによって異なるタスクに対する強みや弱点を与えます。これらのエージェントは、ゲームやDeFi、またはバーチャルアシスタントとしての使用など、特定の属性を強化するために訓練され、他のユーザーと取引することができます。
これらのプロジェクトは、協力してタスクを実行するだけでなく、人工汎用知能を構築するのにも役立つエージェントの将来のエコシステムを想定しています。本当に洗練されたエージェントは、任意のユーザータスクを自律的に遂行する能力を持つでしょう。例えば、旅行予約ウェブサイトのような外部APIとの統合をエージェントがすでに行っているかどうかを確認する必要がなくなり、完全自律エージェントは、別のエージェントを雇ってAPIを統合し、その後タスクを実行する方法を見つける能力を持つでしょう。ユーザーの視点からは、エージェントがタスクを遂行できるかどうかをチェックする必要はありません。エージェント自体がそのことを決定することができます。
2023年7月、ライトニングラボLangChain Bitcoin Suiteと呼ばれるライトニングネットワーク上でエージェントを使用するための概念実装を展開しました。この製品は、Web 2の世界で増え続ける問題に取り組むことを目的としているため、特に興味深いものです。ゲーテッドそして高価ウェブアプリケーション用のAPIキー。
LangChainは、エージェントがビットコインを購入、販売、保持したり、APIキーを照会したり、マイクロペイメントを送信したりできる一連のツールを開発者に提供することで、これを解決します。従来のペイメントレールでは、少額のマイクロペイメントは手数料のために法外なコストがかかりますが、ライトニングネットワークでは、エージェントは最小限の手数料で毎日無制限のマイクロペイメントを送信できます。LangChainのL402支払い従量制APIフレームワークと組み合わせることで、企業は単一のコスト法外な基準を設定するのではなく、使用量の増減に応じてAPIへのアクセス料金を調整することができます。
オンチェーンの活動がエージェント同士の相互作用によって支配される未来において、エージェント同士が費用の面で問題にならない方法で相互作用できるようにするためには、このようなものが必要になるでしょう。これは、許可なしでコスト効率の良い支払いレール上でエージェントを使用することが、新しいマーケットプレイスや経済的な相互作用の可能性を開く方法の初期の例です。
エージェントスペースはまだ新興です。プロジェクトは、インフラストラクチャを使用して単純なタスクを処理できる機能するエージェントを展開し始めたばかりであり、これはしばしば洗練された開発者やユーザーにのみアクセス可能です。しかし、時間の経過とともに、AIエージェントが暗号資産に与える最大の影響の1つは、あらゆる垂直線でのUXの改善です。取引はポイントアンドクリックからテキストベースへ移行し、ユーザーはLLMを介してオンチェーンエージェントとやり取りする能力を持つようになります。すでに、このようなチームがあります暗号資産ウォレットは、ユーザーがチェーン上で対話するためのチャットボットウォレットを導入しています。
また、金融レールが規制された銀行機関に依存しており、24時間365日稼働しておらず、スムーズな国境を越えた取引を行うことができないweb 2でエージェントがどのように運営できるかは不明です。Lyn Alden強調されているように、暗号資産レールは、クレジットカードと比較してチャージバックの欠如やマイクロトランザクションの処理能力が特に魅力的です。ただし、エージェントがより一般的な取引手段となる場合、既存の支払いプロバイダーやアプリケーションが迅速に動き、これらが既存の金融レール上で動作するために必要なインフラを実装する可能性が高いため、暗号資産を使用する利点の一部が軽減されるでしょう。
今のところ、エージェントは、特定の出力が特定の入力に保証される暗号通貨間取引に制限される可能性が高いです。これらのエージェントの能力を決定するモデルと、それらが実行する方法を理解するためのツールとは、さらなる開発が必要です。新奇なオンチェーンの暗号利用事例の範囲を拡大するツールが必要です。暗号エージェントが新奇なオンチェーンの暗号利用事例の範囲外で有用になるには、暗号通貨の支払い手段としての広範な統合と受け入れ、規制上の明確さが必要です。ただし、これらの要素が発展するにつれて、エージェントは分散型計算と上記で議論されたzkMLソリューションの最も大きな消費者の一つになる可能性があります。それらは自律的な非決定論的な方法で動作し、任意のタスクを受け取り、解決するようになっています。
AIは、インフラ開発からユーザーエクスペリエンスやアクセシビリティまで、Web2で既に展開されている革新を、 暗号資産市場に導入しています。ただし、プロジェクトはまだ進化の初期段階にあり、近い将来の暗号資産とAIの統合は、主にオフチェーンの統合によって主導されるでしょう。
Products like コパイロット will 10倍開発者の効率、とlayer 1sおよびDeFiアプリケーションはすでに、マイクロソフトなどの主要な企業と提携してAI支援開発プラットフォームを展開しています。Cub3.aiそしてテストマシンは、スマートコントラクトの監査とリアルタイムの脅威監視のためのAI統合を開発し、オンチェーンのセキュリティを強化しています。また、LLMチャットボットは、オンチェーンデータ、プロトコルドキュメント、アプリケーションを使用してトレーニングされ、ユーザーにアクセシビリティとUXの向上を提供しています。
暗号資産の基盤技術を真に活用するより高度な統合のためには、AIソリューションをオンチェーンで実装することが技術的に可能であり、経済的にも大規模に実行可能であることを実証することが課題として残っています。分散型コンピューティング、zkML、AIエージェントの開発は、暗号資産とAIが深く結びついた未来の基礎を築く有望な分野を指し示しています。
مشاركة
公開ブロックチェーンの出現は、コンピュータサイエンスの歴史における最も重要な進歩の一つです。しかし、人工知能の開発は、そして既に、私たちの世界に深い影響を与えています。ブロックチェーン技術が取引決済、データ保管、システム設計の新しいテンプレートを提供する一方で、人工知能は計算、分析、コンテンツ配信の革命です。両産業のイノベーションは、これからの数年間に両方の採用を加速させる可能性のある新しいユースケースを開拓しています。このレポートでは、暗号資産と人工知能の統合に焦点を当て、両者の力を活かそうとする新しいユースケースに焦点を当てています。具体的には、分散型コンピューティングプロトコル、ゼロ知識機械学習(zkML)インフラストラクチャ、AIエージェントを開発しているプロジェクトについて調査しています。
暗号資産は、許可なく、信頼できず、合成可能な決済レイヤーをAIに提供します。これにより、分散型コンピューティングシステムを通じてハードウェアをより利用しやすくするなどのユースケースが可能になります。価値の交換を必要とする複雑なタスクを実行できるAIエージェントを構築し、シビル攻撃やディープフェイクと戦うための身元確認ソリューションを開発することも可能です。AIは、Web 2で見られる多くの利点を暗号資産にもたらします。これには、大規模言語モデル(ChatGPTやCopilotの特別なトレーニングバージョン)によるユーザーエクスペリエンス(UX)の向上が含まれます。さらに、スマートコントラクトの機能と自動化を大幅に改善する可能性もあります。ブロックチェーンは、AIが必要とする透明なデータ豊富な環境です。しかし、ブロックチェーンには計算能力に限界があり、AIモデルを直接統合する障害となっています。
暗号資産とAIが交差する実験と最終的な採用の背後にある推進力は、暗号資産の最も有望なユースケースの多くを駆動するものと同じです - 許可されていないトラストレスな調整レイヤーへのアクセスが価値の移転をより良く促進します。巨大なポテンシャルを考えると、この分野の参加者は、両技術が交わる基本的な方法を理解する必要があります。
人間の推論および問題解決能力を模倣するために計算と機械を使用する人工知能です。
ニューラルネットワークはAIモデルの一つのトレーニング方法です。入力を離散的なアルゴリズムの層を通して実行し、望ましい出力が生成されるまでそれらを洗練します。ニューラルネットワークは、出力を変更するために修正できる重みを持つ方程式で構成されています。彼らは正確な出力を得るために信じられないほどの量のデータと計算を必要とすることがあります。それは、AIモデルが開発される最も一般的な方法の1つです(ChatGPTは、「暗号資産」を利用したニューラルネットワークプロセスを使用しています。変形ロボット)
トレーニングは、ニューラルネットワークや他のAIモデルが開発されるプロセスです。入力を正しく解釈し、正確な出力を生成するために、モデルをトレーニングするためには大量のデータが必要です。トレーニングプロセス中、モデルの重みは満足のいく出力が生成されるまで継続的に修正されます。トレーニングには非常に高いコストがかかることがあります。例えば、ChatGPTは使用します数万台の独自のGPUを処理するために使用しています。リソースが少ないチームは、Amazon Web Services、Azure、Google Cloud Providersなどの専用のコンピュートプロバイダーに頼ることがよくあります。
推論は、AIモデルを実際に使用して出力や結果を得ることです(たとえば、ChatGPTを使用して、暗号資産とAIの交差点に関する論文のアウトラインを作成する場合など)。推論はトレーニングプロセス全体および最終製品で使用されます。トレーニングが完了した後でも、計算コストが高くなるため、実行するのにコストがかかる場合がありますが、トレーニングよりも計算コストが低いです。
ゼロ知識証明(ZKP)は、基礎となる情報を明らかにせずに主張の検証を可能にします。これは、プライバシーとスケーリングの2つの主要な理由で暗号通貨で役立ちます。プライバシーに関しては、これによりユーザーが財布にいくらのETHがあるかのような機密情報を明らかにせずに取引を行うことができます。スケーリングに関しては、オフチェーン計算が再実行するよりも迅速にオンチェーンで証明されることを可能にします。これにより、ブロックチェーンやアプリケーションがオフチェーンで安価に計算を実行し、その後オンチェーンで検証することができます。ゼロ知識とそのEthereum Virtual Machineでの役割の詳細については、Christine Kimのレポートを参照してください。zkEVMs: イーサリアムのスケーラビリティの未来.
AIと暗号資産の交差点にあるプロジェクトは、スケールでのオンチェーンAIインタラクションをサポートするために必要な基盤をまだ構築中です。
分散コンピュートマーケットプレイスは、主にグラフィック処理ユニット(GPU)の形で提供される大量の物理ハードウェアを供給するために台頭しています。これらの両面市場は、リースおよびリースを検討している人々を結び付け、コンピュートの価値の移転と検証を促進します。分散コンピューティングでは、追加の機能を提供するいくつかのサブカテゴリが台頭しています。両面市場に加えて、このレポートでは、検証可能なトレーニングおよび微調整の出力を提供する機械学習トレーニングプロバイダや、コンピュートとモデル生成を接続して人工汎用知能(AGI)を達成するプロジェクトについても検証します。これは、知能インセンティブネットワークと呼ばれることが多いものです。
zkMLは、コスト効果が高く、迅速に検証可能なモデル出力を提供したいプロジェクトの注目の新興分野です。これらのプロジェクトは主に、アプリケーションが重い計算要求をオフチェーンで処理し、その後、オフチェーンの作業が完了し正確であることを証明する検証可能な出力をオンチェーンに投稿することを可能にします。zkMLは、現在の実装ではコストがかかり、時間がかかりますが、解決策としてますます使用されています。これは、zkMLプロバイダーとDeFi/Gamingアプリケーションの間での統合の数が増えていることから明らかです。これらのアプリケーションは、AIモデルを活用したいと考えています。
コンピュートの豊富な供給とそれをチェーン上で検証する能力は、オンチェーンのAIエージェントの扉を開きます。 エージェントはユーザーの代わりにリクエストを実行できる訓練されたモデルです。 エージェントは、ユーザーがチャットボットに話しかけるだけで複雑な取引を実行できるようにすることで、オンチェーンの体験を大幅に向上させる機会を提供します。 しかし、現在のエージェントプロジェクトは、まだインフラストラクチャやツーリングの開発に焦点を当てています。
AIは、モデルのトレーニングと推論の実行の両方に大量の計算が必要です。過去10年間、モデルがより洗練されるにつれて、計算要件は指数関数的に増加してきました。例えば、OpenAIは、見つけました2012年から2018年までの間、そのモデルの計算要件は2年ごとから3.5か月ごとに倍増しました。これにより、一部の暗号資産マイナーを含むGPUへの需要が急増しました。GPUを再利用するクラウドコンピューティングサービスを提供する(@jeff.washington/2024-02-06-solana-mainnet-beta-outage-report-619bd75b3ce0">read more about this in our annual Bitcoin mining report). As competition to access compute increases and costs rise, several projects are utilizing 暗号資産 to provide decentralized compute solutions. They offer on-demand compute at competitive prices so that teams can affordably train and run models. The tradeoff, in some cases, can be performance and security.
最新のGPU、例えば それらが生産されたNvidiaによって製造されたGPUは、高い需要があります。9月には、Tether取得されたドイツのビットコインマイナーであるNorthern Dataの株式にお金を出して、報道によると、10,000台のH100 GPU(AIトレーニング向けの最も先進的なGPUの1つ)を4億2000万ドルで買収したとされています。待つベストインクラスのハードウェアの納期は少なくとも6ヶ月かかることがあり、多くの場合、それ以上かかることもあります。さらに悪いことに、企業はしばしば使用しないかもしれないコンピュート量のために長期契約にサインする必要があります。これにより、市場で利用可能なコンピュートがあるにもかかわらず、市場で利用できない状況が生じる可能性があります。分散型コンピュートシステムはこれらの市場の非効率性に対処し、コンピュートの所有者が余剰容量をいつでもサブリースできる二次市場を作り出して、新しい供給を解放します。
競争力のある価格設定とアクセス性に加えて、分散型コンピューティングの重要な価値提案は検閲への耐性です。最先端のAI開発は、コンピューティングとデータへの比類のないアクセスを持つ大手テクノロジー企業によってますます支配されています。で強調された最初の重要なテーマは、AI指数レポート2023年の年次報告書によると、業界はAIモデルの開発において学界をますます凌駕しており、その中心的な制御権をわずかなテクノロジーリーダーの手に集約しています。これにより、彼らがAIモデルの基盤となる規範や価値観を決定する上で過度な影響力を持つ能力について懸念が高まっています、特に規制に続いて。プッシュこれらの同じテクノロジー企業によって、彼らのコントロール外でのAI開発を抑制するために
過去数年間に、分散型コンピューティングのためのいくつかのモデルが登場し、それぞれが独自の焦点とトレードオフを持っています。
Akash、io.net、iExec、Cudosなどのプロジェクトは、AIトレーニングおよび推論のための専門コンピューティングに加えて、データおよび一般的なコンピューティングソリューションへのアクセスを提供する、または近日提供する、分散コンピューティングアプリケーションです。
Akashは現在、唯一の完全オープンソースの「スーパークラウド」プラットフォームです。Cosmos SDKを使用したステークネットワークで、AkashのネイティブトークンであるAKTはネットワークのセキュリティを確保し、支払い手段として、そして参加を奨励するために使用されています。Akashは2020年に最初のメインネットを立ち上げ、最初はストレージやCPUリースサービスを特色とする許可なしのクラウドコンピュートマーケットプレイスの提供に焦点を当てました。2023年6月、Akash開始GPUに焦点を当てた新しいテストネットおよび9月開始そのGPUメインネットは、ユーザーがAIトレーニングや推論のためにGPUをリースできるようにしています。
Akashエコシステムには、テナントとプロバイダーの2つの主要なアクターがいます。テナントは、計算リソースを購入したいAkashネットワークのユーザーです。プロバイダーは計算リソースの供給業者です。テナントとプロバイダーをマッチングさせるために、Akashは逆オークションプロセスに依存しています。テナントは計算要件を提出し、その中でサーバーの場所や計算を実行するハードウェアの種類などの条件を指定し、支払いたい金額を指定できます。プロバイダーはその後、自分の価格を提示し、最も低い入札がその仕事を受けることになります。
Akashバリデーターは、ネットワークの整合性を維持します。バリデーターセットは現在100に制限されており、時間の経過とともに段階的に増加する予定です。AKTのステーク量が最も少ない現在のバリデーターよりも多くのAKTをステーキングすることで、誰でもバリデーターになることができます。AKT保有者は、AKTをバリデーターに委任することもできます。ネットワークの取引手数料とブロック報酬はAKTで分配されます。さらに、リースごとに、Akashネットワークはコミュニティによって決定されたレートで「テイクフィー」を獲得し、AKT保有者に分配されます。
分散コンピューティングマーケットは、既存のコンピューティングマーケットの非効率を補完することを目指しています。供給制約は、企業が必要以上のコンピューティングを蓄積するように導いており、クラウドプロバイダーとの契約構造により供給がさらに制約されています。この契約は、必要なくなった場合でも継続的なアクセスが必要とされるため、長期契約に顧客を拘束します。分散コンピューティングプラットフォームは、需要されるコンピューティングを持つ世界中の誰もが供給者になれるように新しい供給を開放します。
AIトレーニング用のGPUに対する需要の急増が、Akashでの長期的なネットワーク使用につながるかどうかは、まだわかりません。Akash は長い間 CPU のマーケットプレイスを提供しており、たとえば、中央集権的な代替手段として同様のサービスを提供しています。70-80%割引。ただし、価格の引き下げにもかかわらず、大幅な採用率にはつながっていません。ネットワーク上のアクティブなリースは横ばいで、2023年第2四半期にはコンピュートのみ33%、メモリのみ16%、ストレージのみ13%の平均値にとどまっています。これらはオンチェーン採用における印象的な指標です(参考までに、主要なストレージプロバイダーのFilecoinは持っていました12.6%のストレージ利用2023年第3四半期)、これらの製品に対する需要を上回る供給が続いていることを示しています。
AkashがGPUネットワークを立ち上げてからちょうど半年以上が経過しており、長期的な採用を正確に評価するにはまだ早い段階です。需要の兆候として、これまでの平均GPU利用率は44%で、CPU、メモリ、ストレージよりも高いです。これは主に最高品質のGPU(A100など)への需要によるもので、 90%leased out.
Akashへの日々の支出も増加しており、特にCPUの利用が増加していますが、これは主に新しいGPUの利用の結果であり、ほぼ2倍になりました。
価格は、Lambda CloudやVast.aiなどの中央集権的競合他社とほぼ同じか、いくらか高い場合もあります。H100やA100sなどの最高クラスのGPUに対する驚異的な需要は、そのような機器の大半の所有者が競争価格に直面するマーケットプレイスにリストを掲載する興味がほとんどないことを意味します。
初期の関心は有望ですが、採用には障壁が残っています(以下でさらに議論されています)。分散型コンピュートネットワークは、需要と供給の両方を生み出すためにさらに取り組む必要があり、チームは新しいユーザーをどのように引き付けるかを試行しています。たとえば、2024年初頭には、Akashが通過しました 提案240GPUサプライヤー向けのAKTのエミッションを増やし、より多くの供給を促進することを目指し、特に高級GPUをターゲットにしています。チームはまた、見込みユーザーにネットワークのリアルタイムの機能を実証するための概念実証モデルの展開に取り組んでいます。Akashはトレーニング彼ら自身の基本モデルを持ち、すでにローンチしていますチャットボットそして画像生成Akash GPU を使用して出力を作成するオファリング。同様に、io.net は開発されました安定した拡散モデルを展開しています新しいネットワーク機能従来のGPUデータセンターのパフォーマンスとスケールをよりよく模倣する
AI のニーズに対応できる汎用コンピューティング プラットフォームに加えて、機械学習モデルのトレーニングに重点を置いた一連の専門の AI GPU プロバイダーも登場しています。例えば、Gensynは「調整「電気とハードウェアを使って集合知を構築する」という考え方で、「誰かが何かを訓練したいと思い、誰かがそれを訓練することを望んでいるなら、その訓練が実現するべきだ」という考え方です。
プロトコルには、提出者、ソルバー、検証者、および告発者の4つの主要なアクターがいます。 提出者はトレーニングリクエストを伴うタスクをネットワークに提出します。 これらのタスクには、トレーニング目標、トレーニングするモデル、およびトレーニングデータが含まれます。 提出プロセスの一環として、提出者は、ソルバーから必要とされる推定コンピューティングのために事前に手数料を支払います。
提出されると、タスクはモデルの実際のトレーニングを行うソルバーに割り当てられます。その後、ソルバーは完了したタスクを検証者に提出し、トレーニングが正しく行われたことを確認する責任があります。告発者は、検証者が正直に行動するように確認する責任があります。告発者がネットワークに参加するようインセンティブを与えるために、Gensynは定期的に目的を持って不正確な証拠を提供し、それらを見破った告発者に報酬を与える予定です。
AI関連のワークロードの計算を提供することを超えて、Gensynの主要な価値提案は、まだ開発中の検証システムです。検証は、GPUプロバイダによる外部計算が正しく実行されることを確認するために必要です(つまり、ユーザーのモデルが望む方法でトレーニングされていることを保証するためです)。 Gensynは、新しい検証手法である「確率的学習の証明、グラフベースのピンポイントプロトコル、Truebitスタイルのインセンティブゲーム」を活用して、この問題に取り組んでいます。これは、検証者がソルバーがモデルを正しく実行したことを確認できる楽観的な解決モードであり、完全に再実行する必要がある高コストで効率の悪いプロセスを行うことなく、検証者がソルバーがモデルを正しく実行したことを確認できるようにします。
革新的な検証方法に加えて、Gensynは請求中央集権的な代替手段や暗号競合他社に比べてコスト効率が良く、AWSよりも最大80%安くMLトレーニングを提供し、Truebitなどの類似プロジェクトをテストで上回る。
これらの初期結果が分散型ネットワーク全体でスケールされて再現可能かどうかはまだ見定められていません。Gensynは、小規模データセンターや小売ユーザーなどのプロバイダーからの余剰計算リソースを活用したいと考えており、将来的には携帯電話のようなより小さなモバイルデバイスからも利用したいとしています。ただし、Gensynチーム自体が認めた, 異種のコンピュート・プロバイダーに依存することは、いくつかの新しい課題をもたらします。
Google Cloud Providers や Coreweave などの中央集権型プロバイダーの場合、コンピューティングは高価ですが、そのコンピューティング間の通信(帯域幅とレイテンシ)は安価です。これらのシステムは、ハードウェア間の通信を可能な限り迅速に行えるように設計されています。Gensynは、そのフレームワークをひっくり返し、世界中の誰もがGPUを提供できるようにすることでコンピューティングコストを削減しますが、ネットワークが遠く離れた場所にある異種ハードウェア間でコンピューティングジョブを調整する必要があるため、通信コストが増加します。Gensynはまだローンチされていませんが、分散型機械学習トレーニングプロトコルの構築に関して何が可能かを示す概念実証です。
分散型コンピューティングプラットフォームは、人工知能の創造方法におけるデザインの可能性も開くようになっています。Bittensorは、Substrate上に構築された分散型コンピューティングプロトコルです。答えようとしています「AIをどのように協力的なアプローチに変えることができるか?」という問題について、Bittensorは人工知能の生成を分散化し、商品化することを目指しています。2021年に立ち上げられたこのプロトコルは、協力的な機械学習モデルの力を活用して、継続的に改善された人工知能を生み出すことを目指しています。
Bittensorは、ビットコインからインスピレーションを得ており、ネイティブ通貨TAOの供給量は2100万であり、4年ごとのハーフィングサイクル(最初のハーフィングは2025年に行われます)があります。ブロック報酬を獲得するために正しいナンスを生成するためには、プルーフ・オブ・ワークを使用せず、マイナーは「プルーフ・オブ・インテリジェンス」を利用し、推論リクエストに応答するための出力を生成するモデルを実行する必要があります。
Bittensor は当初、アウトプットの生成に Mixture of Experts (MoE) モデルに依存していました。推論要求が送信されると、MoE モデルは、1 つの一般化されたモデルに依存するのではなく、特定の入力の種類に対して最も正確なモデルに推論要求を中継します。建設プロセスのさまざまな側面(例:建築家、エンジニア、画家、建設作業員など)のためにさまざまな専門家を雇う家を建てることを考えてみてください。MoE はこれを機械学習モデルに適用し、入力に応じて異なるモデルの出力を利用しようとします。Bittensorの創設者であるAla Shaabanaとして説明された, それは「賢い人々の部屋に話しかけ、最良の答えを得ること」というようなものです。チャレンジ適切なルーティング、メッセージの適切なモデルへの同期、インセンティブ付与を確実にすることで、このアプローチはプロジェクトがより発展するまでおざなりにされています。
Bittensorネットワークには、バリデーターとマイナーの2つの主要なアクターが存在します。バリデーターは推論リクエストをマイナーに送信し、その出力をレビューし、その応答の品質に基づいてランク付けします。彼らのランキングが信頼性があることを保証するために、バリデーターには他のバリデーターのランキングとどの程度一致するかに基づいて「vtrust」スコアが与えられます。バリデーターのvtrustスコアが高いほど、より多くのTAOエミッションを獲得します。これは、時間の経過とともにモデルのランキングについて合意に達するバリデーターが増えれば増えるほど、個々のvtrustスコアが高くなるようにバリデーターにインセンティブを与えることを意図しています。
マイナー、またはサーバーとも呼ばれるネットワーク参加者は、実際の機械学習モデルを実行する参加者です。マイナーは、与えられたクエリのために最も正確な出力を検証者に提供するためにお互いに競い、その出力が正確であるほど、より多くのTAOエミッションを獲得します。マイナーは、その出力を好きなように生成することができます。たとえば、将来のシナリオでは、Bittensorのマイナーが以前にGensynで訓練されたモデルを使用してTAOエミッションを獲得することが完全に可能です。
今日、ほとんどのやりとりは、バリデータとマイナーとの間で直接行われます。 バリデータはマイナーに入力を提出し、アウトプット(つまり、モデルのトレーニング)をリクエストします。 バリデータがネットワーク上のマイナーにクエリを送信し、その回答を受け取った後、そのマイナーをランク付けしてそのランキングをネットワークに提出します。
このPoSに依存する検証者とPoWの一形態であるProof of Modelに依存するマイナーとの相互作用は、ユマコンセンサスと呼ばれます。これは、マイナーが最高のアウトプットを生成してTAOエミッションを獲得し、検証者がマイナーのアウトプットを正確にランク付けしてより高いvtrustスコアを獲得し、TAO報酬を増やすことを目指しています。これにより、ネットワークのコンセンサスメカニズムが形成されます。
Bittensor上の相互作用は主に、バリデータがマイナーにリクエストを送信し、その出力を評価することで構成されています。ただし、貢献するマイナーの質が向上し、ネットワーク全体の知能が向上するにつれて、Bittensorは既存のスタックの上にアプリケーション層を作成し、開発者がBittensorネットワークにクエリを送信するアプリケーションを構築できるようにします。
2023年10月、Bittensorはこれを達成するための重要な一歩を完了しました導入Revolutionアップグレードを通じてサブネットの数を増やしました。サブネットは、特定の行動をインセンティブにするBittensor上の個々のネットワークです。Revolutionは、サブネットの作成に興味を持つすべての人にネットワークを開放します。リリース後の数ヵ月で、32サブネットtext prompting、data scraping、image generation、およびストレージ用のものを含む、いくつかのが立ち上げられました。サブネットが成熟し、製品の準備が整うにつれて、サブネットの作成者はアプリケーションの統合も行います。これにより、チームは特定のサブネットをクエリするアプリケーションを構築できます。一部のアプリケーション(チャットボット、画像ジェネレータ, twitter返信ボット, 予測市場)現在は存在しますが、ビットテンサー財団からの助成金以外に、検証者がこれらのクエリを受け入れて中継するための公式なインセンティブはありません。
より明確な説明をするために、アプリケーションがネットワークに統合された場合、Bittensorがどのように機能するかの例を示します。
サブネットは、そのパフォーマンスに基づいて評価されたTAOを獲得します。ルートネットワーク. ルートネットワークは、すべてのサブネットの上に位置し、実質的に特別な種類のサブネットとして機能し、ステークによって管理される64大規模なサブネットバリデータによって管理されます。 ルートネットワークのバリデータは、サブネットのパフォーマンスに基づいてランク付けを行い、定期的にTAOエミッションをサブネットに配布します。 このようにして、個々のサブネットはルートネットワークのマイナーとして機能します。
Bittensorは、プロトコルの機能を拡張し、複数のサブネットで知能生成をインセンティブ化するために苦労しています。マイナーは、ネットワークへの攻撃を試み、より多くのTAO報酬を得るための新しい方法を考案し続けています。たとえば、少し修正モデルによって高く評価された推論の出力を提出し、複数の変化を提出する。ネットワーク全体に影響を与えるガバナンス提案は、提出および実装されることができます。三頭政治、完全にOpentensor Foundationの利害関係者から構成されています(提案にはBittensorの承認が必要であることに注意してください上院Bittensorのバリデータから構成されます。また、プロジェクトのトークノミクスは、サブネット間でTAOの利用を促進するために改善されるプロセスにあります。このプロジェクトは、ユニークなアプローチで急速に注目を集めており、最も人気のあるAIウェブサイトのCEOもその一つです。HuggingFaceBittensorは、そのリソースをウェブサイトに追加すべきであると示しています。
最近公開された部分Bittensor Paradigmと呼ばれるコア開発者によって、チームはBittensorが最終的に「何が測定されているかに無関心であること」を進化させるビジョンを提示しています。理論上、これにより、BittensorはTAOによって支えられたあらゆる種類の行動をインセンティブ付けするサブネットを開発できる可能性があります。これらのネットワークがそのような多様なプロセスを処理するためにスケーリングできること、および基盤となるインセンティブが中央集権的な提供物を凌駕する進歩をもたらすことを実証するという重要な実践的な制約が残っています。
上記のセクションでは、開発中のさまざまな種類の分散型人工知能計算プロトコルの概要を高レベルで提供しています。開発と採用の初期段階ではありますが、これらは最終的に「AIビルディングブロック」の作成を容易にするエコシステムの基盤を提供しています。パーミッションレス・ブロックチェーンの可組成性により、各プロトコルが互いに積み重ねてより包括的な分散型人工知能エコシステムを提供する可能性が開かれています。
例えば、Akash、Gensyn、およびBittensorがすべて相互作用して推論リクエストに応答する方法の一つがこちらです。
はっきり言っておきますが、これは単に将来可能性があるものの例であり、現在のエコシステム、既存のパートナーシップ、または予想される結果を表すものではありません。相互運用性への制約や、以下で説明するその他の考慮事項により、現在は統合の可能性がかなり制限されています。さらに、流動性の断片化や複数のトークンの使用の必要性は、ユーザーエクスペリエンスに悪影響を及ぼす可能性があります。指摘されました両方のAkashとBittensorの創設者によって
コンピューティングに加えて、暗号資産の新興AIエコシステムをサポートするために展開されている他のいくつかの分散型インフラサービスがあります。すべてをリストアップするのはこのレポートの範囲外ですが、いくつか興味深いおよび説明的な例があります。
これらは、集中型市場モデルを探るための無限の機会を示しており、AIモデルをサポートするか、それらを開発するために必要な周辺インフラを支援します。現時点では、これらのプロジェクトはほとんど概念実証段階にあり、包括的なAIサービスを提供するために必要なスケールで運営できることを実証するためには、さらに多くの研究と開発が必要です。
分散コンピューティングの提供はまだ開発の初期段階にあります。彼らは、最も強力なAIモデルのトレーニングが可能な最新のコンピュートにアクセスする展開を始めたばかりです。彼らが意味のある市場シェアを獲得するためには、中央集権化された代替手段と比較して実用的な利点を示す必要があります。より広範な採用のための潜在的なトリガーには、以下が含まれます:
スマート契約は、任意のブロックチェーンエコシステムの中核をなす構築ブロックです。特定の条件が設定されると、自動的に実行され、信頼できる第三者の必要性を減らすか排除し、DeFiで見られるような複雑な分散型アプリケーションの作成を可能にします。ただし、ほとんどの場合、現在のスマート契約は、更新する必要がある事前設定パラメーターに基づいて実行されるという点で機能が制限されています。
例えば、貸借プロトコルスマートコントラクトは、特定の貸借価値比率に基づいてポジションをいつリキデートするかの仕様で展開されます。静的な環境では有用ですが、リスクが絶えず変動する動的な状況では、これらのスマートコントラクトはリスク許容度の変化を考慮に入れるために継続的に更新する必要があります。これにより、集中型プロセスを介して管理されていない契約にとっては、課題が生じます。例えば、分散型ガバナンスプロセスに依存するDAOは、システムリスクに対応するために十分に迅速に反応できないかもしれません。
AI(つまり、機械学習モデル)を統合するスマート契約は、機能性、セキュリティ、効率を向上させ、全体的なユーザーエクスペリエンスを向上させる可能性がある方法の1つです。 ただし、これらの統合は追加のリスクをもたらすこともあり、これらのスマート契約の基盤となるモデルが悪用されることがないことを保証したり、ロングテールの状況を考慮したりすることは不可能です(これらの状況は、機械学習モデルにとって notoriously hard なトレーニング状況です)。データ入力の不足for them).
機械学習は複雑なモデルを実行するために大量の計算能力が必要であり、これにより高コストのため、AIモデルをスマート契約内で直接実行することができません。例えば、利回りを最適化するモデルへのアクセスを提供するDeFiプロトコルは、そのモデルをオンチェーンで実行する際に過高なガス手数料を支払わなければならないため、苦労するでしょう。 一つの解決策は、基礎となるブロックチェーンの計算能力を増やすことです。しかし、これはまた、チェーンの検証者セットに要求を増やすため、分散化の特性を損なう可能性があります。代わりに、いくつかのプロジェクトでは、オンチェーン計算を必要とせずに、信頼性のある方法で出力を検証するためにzkMLの使用を模索しています。
ワン 一般的にzkMLの有用性を示す具体的な例を共有することは、ユーザーが他の誰かにデータをモデルに通す必要があり、同時に相手方が実際に正しいモデルを実行したことを検証する場合です。たとえば、開発者が分散型コンピュートプロバイダーを使用してモデルをトレーニングし、プロバイダーが出力の微妙な違いを示すよりも安価なモデルを使用してコスト削減しようとしているのではないかと心配しています。zkMLを使用すると、コンピュートプロバイダーはデータをモデルに通し、その後チェーン上で検証できる証拠を生成して、与えられた入力に対するモデルの出力が正しいことを証明できます。この場合、モデルプロバイダーは、出力を生成する基盤となる重みを明らかにすることなく、モデルを提供する利点があります。
逆も可能です。ユーザーがデータを使用してモデルを実行したいが、医療検査や独自のビジネス情報などプライバシー上の懸念からモデル提供プロジェクトがデータにアクセスすることを望まない場合、ユーザーはデータを共有せずにモデルを実行し、その後証明書で正しいモデルを実行したことを確認できます。これらの可能性により、AIとスマートコントラクト機能の統合の設計空間が大幅に拡大します。
zkMLの初期段階を考えると、開発は主に、チームがモデルとアウトプットをオンチェーンで検証できる証明に変換するために必要なインフラストラクチャとツールの構築に焦点を当てています。これらの製品は、開発のゼロ知識の側面を可能な限り抽象化しています。
EZKLとギザこのツールを構築する2つのプロジェクトは、機械学習モデルの実行の検証可能な証拠を提供することによってそれを実現しています。両方のプロジェクトは、チームが機械学習モデルを構築するのを支援し、その後、そのモデルがチェーン上で信頼できるように実行できるようにします。両プロジェクトは、TensorFlowやPytorchなどの一般的な言語で書かれた機械学習モデルを標準形式に変換するために、Open Neural Network Exchange(ONNX)を使用しています。その後、それらのモデルのバージョンを出力し、実行時にzk-証明を生成するようにもします。EZKLはオープンソースでzk-SNARKSを生成し、Gizaはクローズドソースでzk-STARKSを生成します。両プロジェクトは現在、EVMとの互換性しかありません。
EZKLは、過去数か月にわたって、主にに焦点を当てたzkMLソリューションの強化において、著しい進展を示してきました。コスト削減,セキュリティーの向上, そして 証明生成の加速例えば、2023年11月には、EZKLは新しいオープンソースGPUライブラリを統合し、証明の総合時間を35%削減し、1月にはEZKL発表されましたEZKL証明システムを使用する際に高性能コンピュートクラスタを統合し、並行ジョブをオーケストレーションするソフトウェアソリューションであるLilith。Gizaは、検証可能な機械学習モデルを作成するためのツールを提供するだけでなく、web3の相当物を実装する予定です。Hugging Face,ユーザーマーケットプレイスを開設し、zkMLコラボレーションとモデル共有を可能にするだけでなく、最終的には分散型コンピュートオファリングを統合する。1月にEZKLがリリースされました。基準評価EZKL、Giza、および以下で議論されたRiscZeroのパフォーマンスを比較する。 EZKLは、より速い証明時間とメモリ使用量を示しました。
Modulus LabsAIモデルに特化した新しいzk-proof技術も開発中です。Modulusは『』という論文を公開しました。知性のコスト(非常に高いコストを示唆している)これは、その当時の既存のzkプルーフシステムをベンチマークにして、AIモデルのzkプルーフを改善するための能力とボトルネックを特定しました。2023年1月に発表されたこの論文は、既存の提供物が単純に大規模なAIアプリケーションを可能にするにはあまりにも高価で効率的でないことを示しています。初期の研究を基にして、Modulusは11月に@ModulusLabs/introducing-modulus-bring-ai-on-chain-d75dcb82c5e3">プロジェクトがモデルをスマートコントラクトに大規模に統合することを経済的に実現可能にすることを目標に、AIモデルのコストと証明時間を削減するために特別に構築された特殊なゼロ知識証明者であるRemainderを導入しました。彼らの研究はクローズドソースであるため、上記のソリューションにベンチマークすることはできませんでしたが、最近Vitalikのブログ投稿暗号資産とAIについて。
暗号資産とインフラの開発は、zkMLスペースの将来の成長にとって重要です。なぜなら、これによりzk回路を展開する必要があるチームにとって、摩擦が大幅に減少するからです。オフチェーン計算を検証可能に実行するためには、機械学習で働くノンクリプトネイティブ・ビルダーが、安全なインタフェースを作成し、モデルをオンチェーンに持ち込むことができるようになります。モデルをオンチェーンに持ち込むことで、真に革新的な用途のアプリケーションの実験が可能になります。ツールはまた、より広範なzkMLの採用における主要な障壁である、ゼロ知識、機械学習、および暗号の交差点で働くことに関心を持ち、知識のある開発者の不足にも対処しています。
開発中の追加ソリューションは、「コプロセッサ」と呼ばれます。RiscZero、アクシオム、儀式. The term coprocessor is mostly semantics – these networks fulfill many different roles, including verifying offchain compute on-chain. As with EZKL, Giza, and Modulus, they aim to completely abstract the zero-knowledge proof generation process, creating essentially zero-knowledge virtual machines capable of executing programs offchain and generating proofs for verification on-chain. RiscZero and Axiom can サービスシンプルなAIモデルは、より汎用のコプロセッサとして意図されている一方、リチュアルはAIモデルとの使用を目的として構築されています。
インファーネットRitualの最初の実体化は、開発者がネットワークに推論リクエストを送信して出力と証拠(オプションで)を受け取ることができるInfernet SDKを含んでいます。Infernetノードはこれらのリクエストを受け取り、計算をオフチェーンで処理して出力を返します。たとえば、DAOは、新しいガバナンス提案が提出される前に特定の事前条件を満たしていることを確認するためのプロセスを作成できます。新しい提案が提出されるたびに、ガバナンス契約は、DAO固有のガバナンストレーニング済みAIモデルを呼び出すInfernetを介した推論リクエストをトリガーします。モデルは提案をレビューし、必要な基準がすべて提出されたことを確認し、出力と証拠を返します。提案の提出を承認するか拒否するかをします。
来年、Ritualチームは、Ritual Superchainと呼ばれる基盤インフラストラクチャレイヤーを形成する追加機能を展開する予定です。以前に議論された多くのプロジェクトは、サービスプロバイダーとしてRitualに接続することができます。すでに、Ritualチームは、証明生成のためにEZKLと統合しており、おそらく近く他の主要なプロバイダーの機能を追加するでしょう。Ritual上のInfernetノードは、Akashやio.netのGPUを使用し、Bittensorのサブネットでトレーニングされたクエリモデルを使用することもできます。彼らの最終目標は、あらゆるネットワークからあらゆるワークロードを通じて機械学習およびその他のAI関連タスクを処理できるオープンAIインフラストラクチャのプロバイダになることです。
zkMLが助けます調和するブロックチェーンとAIの間の矛盾、前者は本質的にリソースに制約があり、後者は大量の計算とデータを必要とします。Gizaの創設者の一人として置いて, “利用例が非常に豊富です...これはまるでEthereumの初期にスマートコントラクトの利用例を尋ねられるようなものです...私たちがやっていることは、スマートコントラクトの利用例を拡大するだけです。” ただし、上記のように、現在の開発は主にツールやインフラのレベルで行われています。アプリケーションはまだ試験的な段階にあり、zkMLを使用してモデルを実装することから生じる価値が、その複雑さとコストを上回ることをチームが証明することに挑戦されています。
今日の一部のアプリケーションには、
zkMLはまだ実験段階にあり、ほとんどのプロジェクトがインフラストラクチャの基本構築と概念の証明に焦点を当てています。現在の課題には、計算コスト、メモリ制限、モデルの複雑さ、ツールやインフラストラクチャの制約、そして開発者の才能が含まれます。単純に言えば、消費者向け製品に必要な規模でzkMLを実装するためには、かなりの作業が必要です。
領域が成熟するにつれて、これらの制限が解決されると、zkMLはAIと暗号資産の統合の重要な構成要素になります。zkMLの本質は、オフチェーンの任意のサイズの計算をオンチェーンに持ち込みながら、計算がオンチェーンで実行された場合と同じかそれに近いセキュリティ保証を維持する能力を約束しています。しかし、そのビジョンが実現するまで、技術の初期利用者は、zkMLのプライバシーとセキュリティと代替手段の効率との間のトレードオフをバランスしなければなりません。
AIと暗号資産のより興奮する統合の1つは、AIエージェントの実験です。 エージェントは、AIモデルを使用してタスクを受け取り、解釈し、実行できる自律型ボットです。 これは、常に利用可能な個人アシスタントで、あなたの好みに合わせて調整されたものから、リスクの好みに応じてポートフォリオを管理および調整する金融エージェントを雇うまで、何でもあります。
エージェントとクリプトは、許可なしで信頼できる支払いインフラを提供するため、うまく組み合わされます。トレーニングを受けた後、エージェントにはウォレットが提供され、スマートコントラクトとの取引が可能になります。例えば、現在のシンプルなエージェントは、インターネットをクロールして情報を収集し、その後モデルに基づいて予測市場で取引を行うことができます。
モーフィアス2024年にイーサリアムとアービトラム市場に登場する最新のオープンソースエージェントプロジェクトの1つです。そのホワイトペーパーは2023年9月に匿名で公開され、(注目すべき人物を含む)コミュニティが形成され、構築される基盤となりました。Erik Vorhees). ホワイトペーパーにはダウンロード可能な スマートエージェントプロトコル, ユーザーのウォレットによって管理され、スマートコントラクトと連携することができるオープンソースのLLMです。スマートコントラクトランクエージェントが、処理されたトランザクションの数などの基準に基づいて、安全にやり取りできるスマートコントラクトを特定するのに役立つ
白書には、スマートエージェントプロトコルを運用するために必要なインセンティブ構造やインフラの構築フレームワークが提供されています。これには、エージェントとやり取りするためのフロントエンドを構築するための貢献者へのインセンティブ、エージェント同士がやり取りできるようにするための開発者向けのAPI、そしてエッジデバイス上でエージェントを実行するために必要なコンピューティングとストレージにアクセスするためのクラウドソリューションが含まれます。プロジェクトの初期資金調達は2月上旬に開始され、完全なプロトコルの立ち上げは24年第2四半期に予定されています。
分散型自律型インフラストラクチャネットワーク(DAIN)Solana上でエージェント間経済を構築する新しいエージェントインフラストラクチャプロトコルです。 DAINの目標は、異なるビジネスのエージェントがユニバーサルAPIを介してシームレスに相互作用できるようにすることで、Web2およびWeb3製品と相互作用できるエージェントの設計空間を大幅に拡大することです。 1月に、DAINは初めての発表を行いました。パートナーシップAsset Shieldを備え、ユーザーがマルチシグに「エージェント署名者」を追加し、取引を解釈し、ユーザーが設定したルールに基づいて承認/拒否することができるようにします。
Fetch.AIは最初のAIエージェントプロトコルの1つであり、FETトークンとを使用して、チェーン上でエージェントを構築、展開、利用するためのエコシステムを開発しました。Fetch.AIウォレット。プロトコルは、エージェントの使用に関する包括的なツールとアプリケーションを提供し、ウォレット機能を備えてエージェントとの対話や注文を行うための機能が含まれています。
Autonolas, Fetchチームの前メンバーを含む創設者がいる、は分散型AIエージェントの作成と利用のためのオープンマーケットプレイスです。 Autonolasは、開発者がホストされたオフチェーンでプラグイン可能なAIエージェントを構築するためのツールセットも提供しており、Polygon、Ethereum、Gnosis Chain、Solanaを含む複数のブロックチェーンに接続できます。現在、いくつかのアクティブなエージェントの概念実証があります。製品予測市場やDAOガバナンスに使用するためを含む。
シンギュラリティネット人々が狭い焦点を当てたAIエージェントを展開し、他の人やエージェントが複雑なタスクを実行するために雇うことができる分散型AIエージェントのマーケットプレイスを構築しています。他の人々も、Gate.ioのようなAlteredStateMachine、はNFTとAIエージェントの統合を構築しています。ユーザーはランダムな属性を持つNFTを作成し、それによって異なるタスクに対する強みや弱点を与えます。これらのエージェントは、ゲームやDeFi、またはバーチャルアシスタントとしての使用など、特定の属性を強化するために訓練され、他のユーザーと取引することができます。
これらのプロジェクトは、協力してタスクを実行するだけでなく、人工汎用知能を構築するのにも役立つエージェントの将来のエコシステムを想定しています。本当に洗練されたエージェントは、任意のユーザータスクを自律的に遂行する能力を持つでしょう。例えば、旅行予約ウェブサイトのような外部APIとの統合をエージェントがすでに行っているかどうかを確認する必要がなくなり、完全自律エージェントは、別のエージェントを雇ってAPIを統合し、その後タスクを実行する方法を見つける能力を持つでしょう。ユーザーの視点からは、エージェントがタスクを遂行できるかどうかをチェックする必要はありません。エージェント自体がそのことを決定することができます。
2023年7月、ライトニングラボLangChain Bitcoin Suiteと呼ばれるライトニングネットワーク上でエージェントを使用するための概念実装を展開しました。この製品は、Web 2の世界で増え続ける問題に取り組むことを目的としているため、特に興味深いものです。ゲーテッドそして高価ウェブアプリケーション用のAPIキー。
LangChainは、エージェントがビットコインを購入、販売、保持したり、APIキーを照会したり、マイクロペイメントを送信したりできる一連のツールを開発者に提供することで、これを解決します。従来のペイメントレールでは、少額のマイクロペイメントは手数料のために法外なコストがかかりますが、ライトニングネットワークでは、エージェントは最小限の手数料で毎日無制限のマイクロペイメントを送信できます。LangChainのL402支払い従量制APIフレームワークと組み合わせることで、企業は単一のコスト法外な基準を設定するのではなく、使用量の増減に応じてAPIへのアクセス料金を調整することができます。
オンチェーンの活動がエージェント同士の相互作用によって支配される未来において、エージェント同士が費用の面で問題にならない方法で相互作用できるようにするためには、このようなものが必要になるでしょう。これは、許可なしでコスト効率の良い支払いレール上でエージェントを使用することが、新しいマーケットプレイスや経済的な相互作用の可能性を開く方法の初期の例です。
エージェントスペースはまだ新興です。プロジェクトは、インフラストラクチャを使用して単純なタスクを処理できる機能するエージェントを展開し始めたばかりであり、これはしばしば洗練された開発者やユーザーにのみアクセス可能です。しかし、時間の経過とともに、AIエージェントが暗号資産に与える最大の影響の1つは、あらゆる垂直線でのUXの改善です。取引はポイントアンドクリックからテキストベースへ移行し、ユーザーはLLMを介してオンチェーンエージェントとやり取りする能力を持つようになります。すでに、このようなチームがあります暗号資産ウォレットは、ユーザーがチェーン上で対話するためのチャットボットウォレットを導入しています。
また、金融レールが規制された銀行機関に依存しており、24時間365日稼働しておらず、スムーズな国境を越えた取引を行うことができないweb 2でエージェントがどのように運営できるかは不明です。Lyn Alden強調されているように、暗号資産レールは、クレジットカードと比較してチャージバックの欠如やマイクロトランザクションの処理能力が特に魅力的です。ただし、エージェントがより一般的な取引手段となる場合、既存の支払いプロバイダーやアプリケーションが迅速に動き、これらが既存の金融レール上で動作するために必要なインフラを実装する可能性が高いため、暗号資産を使用する利点の一部が軽減されるでしょう。
今のところ、エージェントは、特定の出力が特定の入力に保証される暗号通貨間取引に制限される可能性が高いです。これらのエージェントの能力を決定するモデルと、それらが実行する方法を理解するためのツールとは、さらなる開発が必要です。新奇なオンチェーンの暗号利用事例の範囲を拡大するツールが必要です。暗号エージェントが新奇なオンチェーンの暗号利用事例の範囲外で有用になるには、暗号通貨の支払い手段としての広範な統合と受け入れ、規制上の明確さが必要です。ただし、これらの要素が発展するにつれて、エージェントは分散型計算と上記で議論されたzkMLソリューションの最も大きな消費者の一つになる可能性があります。それらは自律的な非決定論的な方法で動作し、任意のタスクを受け取り、解決するようになっています。
AIは、インフラ開発からユーザーエクスペリエンスやアクセシビリティまで、Web2で既に展開されている革新を、 暗号資産市場に導入しています。ただし、プロジェクトはまだ進化の初期段階にあり、近い将来の暗号資産とAIの統合は、主にオフチェーンの統合によって主導されるでしょう。
Products like コパイロット will 10倍開発者の効率、とlayer 1sおよびDeFiアプリケーションはすでに、マイクロソフトなどの主要な企業と提携してAI支援開発プラットフォームを展開しています。Cub3.aiそしてテストマシンは、スマートコントラクトの監査とリアルタイムの脅威監視のためのAI統合を開発し、オンチェーンのセキュリティを強化しています。また、LLMチャットボットは、オンチェーンデータ、プロトコルドキュメント、アプリケーションを使用してトレーニングされ、ユーザーにアクセシビリティとUXの向上を提供しています。
暗号資産の基盤技術を真に活用するより高度な統合のためには、AIソリューションをオンチェーンで実装することが技術的に可能であり、経済的にも大規模に実行可能であることを実証することが課題として残っています。分散型コンピューティング、zkML、AIエージェントの開発は、暗号資産とAIが深く結びついた未来の基礎を築く有望な分野を指し示しています。