# AI+Web3: タワーとプラザ### TL; 博士1. AIコンセプトのWeb3プロジェクトは、一次市場と二次市場で資金を引き寄せるターゲットとなっています。2. Web3のAI業界における機会は、分散型インセンティブを使用してロングテールの潜在的な供給を調整することに現れています——データ、ストレージ、計算を横断して;同時に、オープンソースモデルとAIエージェントの分散型市場を構築します。3. AIのWeb3業界での主な活用分野は、オンチェーン金融(暗号決済、取引、データ分析)および開発支援です。4. AI+Web3の有用性は、両者の相互補完に表れています:Web3はAIの集中化に対抗することが期待されており、AIはWeb3が境界を越えるのを助けることが期待されています。! [AI+Web3: タワー&プラザ](https://img-cdn.gateio.im/social/moments-25bce79fdc74e866d6663cf31b15ee55)### はじめにここ2年、AIの発展は加速ボタンが押されたかのようで、Chatgptが引き起こしたバタフライ効果は、生成的人工知能の新しい世界を開くだけでなく、対岸のWeb3でも大きな流れを巻き起こしています。AIコンセプトの加持のもと、緩やかになった暗号市場の資金調達が明らかに活気づいています。メディアの統計によると、2024年上半期だけで、64のWeb3+AIプロジェクトが資金調達を完了しました。人工知能を基にしたオペレーティングシステムZyber365は、Aラウンドで1億ドルの最高資金調達額を達成しました。二次市場はさらに活況を呈しており、暗号総合サイトのデータによると、わずか1年余りの間にAI分野の総時価総額は485億ドルに達し、24時間の取引量は86億ドルに近づいています。主流のAI技術の進展による恩恵は明らかで、OpenAIのSoraテキストから動画へのモデルが発表された後、AIセクターの平均価格は151%上昇しました。AIの効果は暗号通貨の資金吸引セクターの一つであるMemeにも波及しています:最初のAIエージェントコンセプトのMemeCoinであるGOATは急速に人気を集め、14億ドルの評価を獲得し、AI Memeブームを成功裏に巻き起こしました。AI+Web3に関する研究や話題も同様に熱気を帯びており、AI+DepinからAI Memecoin、さらに現在のAI AgentやAI DAOまで、FOMOの感情はすでに新しいストーリーのローテーションの速度に追いついていません。AI+Web3、この熱い資金、トレンド、未来の幻想に満ちた用語の組み合わせは、資本によって結びつけられたお見合い結婚として見られがちであり、この華やかなローブの下に、実際には投機者の舞台なのか、それとも黎明の爆発の前夜なのかを見分けるのは非常に難しいようです。この質問に答えるためには、両者にとって重要な思考は、相手がいることでより良くなるのか?相手のモデルから利益を得ることができるのか?この記事では、先人の肩に立ってこのパターンを考察しようとしています:Web3 は AI 技術スタックの各段階でどのように機能し、AI は Web3 に何の新しい活力をもたらすことができるのでしょうか?### パート1 AI スタック下の Web3 にどのような機会があるか?このトピックを展開する前に、AI大規模モデルの技術スタックを理解する必要があります。より分かりやすい言葉で全体のプロセスを表現すると、「大モデル」は人間の脳のようなもので、初期段階では、この脳は生まれたばかりの赤ちゃんに属し、周囲の膨大な情報を観察し取り入れてこの世界を理解する必要があります。これがデータの「収集」段階です。コンピュータは人間の視覚や聴覚などの感覚を持っていないため、訓練前に外部の大規模な無標記情報は「前処理」を通じてコンピュータが理解でき、利用可能な情報形式に変換する必要があります。データを入力すると、AIは「トレーニング」によって理解と予測能力を持つモデルを構築します。これは、赤ちゃんが外界を理解し学ぶ過程に似ています。モデルのパラメータは、赤ちゃんの学習過程で徐々に調整される言語能力のようなものです。学ぶ内容が専門化し始めたり、人との交流を通じてフィードバックを得て修正が行われると、大モデルの「ファインチューニング」プロセスに入ります。子供たちは徐々に成長し、話すことを学んだ後、新しい対話の中で意味を理解し、自分の感情や考えを表現することができる。この段階はAI大規模モデルの「推論」に似ており、モデルは新しい言語やテキスト入力に対して予測や分析を行うことができる。赤ちゃんは言語能力を通じて感情を表現し、物体を描写し、さまざまな問題を解決する。このことは、AI大規模モデルが訓練を完了し、使用に投入された後に推論段階で特定のタスク(画像分類、音声認識など)に適用されることにも似ている。AIエージェントは、大規模モデルの次の形態に近づいています。これは、独立してタスクを実行し、複雑な目標を追求できるもので、思考能力を持つだけでなく、記憶、計画もでき、ツールを使って世界とインタラクトすることができます。現在、AIのさまざまなスタックに対する痛点に対処するために、Web3は現在、AIモデルプロセスの各段階をカバーする多層的で相互接続されたエコシステムを初歩的に形成しています。! [AI+Web3:タワー&スクエア](https://img-cdn.gateio.im/social/moments-cc3bf45e321f9b1d1280bf3bb827d9f4)####1.基本レイヤー:計算能力とデータ用のAirbnb**▎ハッシュレート**現在、AIの最高のコストの一つは、モデルのトレーニングと推論に必要な計算能力とエネルギーです。一例として、Meta の LLAMA3 は NVIDIA 製の H100 GPU 16,000 台を必要とし(これは人工知能と高性能計算のワークロード向けに設計された最高級のグラフィックスプロセッサユニットです)、トレーニングを完了するのに 30 日かかります。後者の 80GB バージョンの単価は 30,000 ~ 40,000 ドルの間で、4 億 ~ 7 億ドルの計算ハードウェア投資(GPU + ネットワークチップ)が必要であり、同時に月ごとのトレーニングには 16 億キロワット時を消費し、毎月のエネルギー支出は約 2000 万ドルです。AIの計算力の解放は、Web3が最初にAIと交差した分野であり、DePin(分散型物理インフラストラクチャネットワーク)です。現在、DePin Ninjaデータサイトには1400以上のプロジェクトが掲載されており、その中にはio.net、Aethir、Akash、Render NetworkなどのGPU計算力共有を代表するプロジェクトが含まれています。その主な論理は、プラットフォームが余剰のGPUリソースを持つ個人または組織が許可なしに分散型の方法で計算能力を提供できるようにすることです。UberやAirbnbのようなバイヤーと売り手のオンラインマーケットを通じて、十分に活用されていないGPUリソースの使用率を向上させ、最終ユーザーはより低コストで効率的な計算リソースを得ることができます。同時に、ステーキングメカニズムは、品質管理メカニズムに違反したりネットワークが中断された場合に、リソース提供者に相応の罰則があることを保証します。その特徴は次のとおりです:* 余剰なGPUリソースを集める:供給者は主に第三者の独立した中小型データセンターや暗号マイニングファームなどのオペレーターの余剰計算リソースで、コンセンサスメカニズムはPoSのマイニングハードウェア、例えばFileCoinやETHマイナーです。現在、exolabのようにMacBook、iPhone、iPadなどのローカルデバイスを利用して、より低い参入障壁で大規模モデル推論の計算ネットワークを構築することに取り組んでいるプロジェクトもあります。* AI計算能力のロングテール市場に直面して:a.「技術的な観点から見て」分散型コンピューティング市場は推論ステップにより適しています。トレーニングは超大規模なクラスターによるGPUのデータ処理能力により一層依存していますが、推論はGPU計算性能に対する依存度が比較的低く、Aethirは低遅延のレンダリング作業およびAI推論アプリケーションに特化しています。b.「需要の観点から見ると」中小の計算力需要者は自ら大規模モデルを単独でトレーニングすることはなく、むしろ少数の主要な大規模モデルの周りで最適化や微調整を行うことを選択します。これらのシナリオはすべて、分散型の未使用計算力資源に自然に適しています。* 分散型所有権:ブロックチェーンの技術的意義は、リソースの所有者が常にリソースに対するコントロール権を保持し、需要に応じて柔軟に調整し、同時に利益を得ることができることです。**▎データ**データはAIの基礎です。データがなければ、計算は浮草のように無用であり、データとモデルの関係は「ガベージイン、ガベージアウト」ということわざのようなものです。データの量と入力の質が最終的なモデルの出力の質を決定します。現在のAIモデルのトレーニングにおいて、データはモデルの言語能力、理解能力、さらには価値観や人間性の表現を決定します。現在、AIのデータ需要のジレンマは主に以下の4つの側面に焦点を当てています:* データの渇望:AIモデルのトレーニングは大量のデータ入力に依存しています。公開された資料によれば、OpenAIはGPT-4のトレーニングに1兆を超えるパラメータを使用しています。* データ品質:AIと各産業の融合が進む中で、データのタイムリーさ、データの多様性、垂直データの専門性、ソーシャルメディアの感情などの新興データソースの取り入れが、その品質に新たな要求を突きつけています。* プライバシーとコンプライアンスの問題:現在、各国や企業は高品質なデータセットの重要性に徐々に気づき、データセットのクローリングに制限を設けています。* データ処理コストが高い:データ量が多く、処理プロセスが複雑です。公開された資料によると、AI企業の30%以上の研究開発コストは基礎データの収集と処理に使われています。現在、web3のソリューションは以下の4つの側面に表れています:1、データ収集:無料で取得できるリアルワールドデータは急速に枯渇しており、AI企業のデータへの支出は年々増加しています。しかし同時に、この支出はデータの真の提供者には還元されておらず、プラットフォームはデータから生まれる価値創造を全て享受しています。例えば、RedditはAI企業とのデータライセンス契約を結ぶことで合計2億300万ドルの収入を実現しました。真に貢献するユーザーがデータによる価値創造に同様に参加し、分散型ネットワークとインセンティブメカニズムを通じて、低コストでよりプライベートで価値のあるデータを取得することがWeb3のビジョンです。* Grassは、分散型のデータ層とネットワークであり、ユーザーはGrassノードを運営することで、未使用の帯域幅と中継トラフィックを提供し、インターネット全体のリアルタイムデータをキャッチし、トークン報酬を得ることができます;* Vanaは独自のデータ流動性プール(DLP)概念を導入し、ユーザーは自分のプライベートデータ(ショッピング履歴、ブラウジング習慣、ソーシャルメディア活動など)を特定のDLPにアップロードし、これらのデータを特定の第三者に使用することを許可するかどうかを柔軟に選択できます;* PublicAIでは、ユーザーはX上で#AI 或#Web3をカテゴリラベルとして使用し、@PublicAIを付けることでデータ収集を実現できます。2、データ前処理:AIのデータ処理プロセスでは、収集されたデータが通常ノイズが多く、エラーが含まれているため、モデルを訓練する前にデータをクリーンアップし、使用可能な形式に変換する必要があります。これには、標準化、フィルタリング、欠損値の処理といった繰り返しのタスクが含まれます。この段階はAI業界における数少ない人手によるプロセスであり、データアノテーターという職業が生まれました。モデルがデータの質に対する要求を高めるにつれて、データアノテーターのハードルも上がっていますが、このタスクはWeb3の非中央集権的なインセンティブメカニズムに自然に適しています。* 現在、Grass と OpenLayer はデータラベリングという重要なプロセスへの参加を検討しています。* Synesisは「Train2earn」の概念を提唱し、データの質を強調しています。ユーザーは、ラベル付きデータ、注釈、またはその他の形式の入力を提供することで報酬を得ることができます。* データアノテーションプロジェクトSapienは、マーク付けタスクをゲーム化し、ユーザーがポイントをステークしてより多くのポイントを得ることを可能にします。3、データプライバシーとセキュリティ:明確にする必要があるのは、データプライバシーとセキュリティは異なる概念であるということです。データプライバシーはセンシティブデータの取り扱いに関わり、データセキュリティはデータ情報を無許可のアクセス、破壊、盗難から保護します。したがって、Web3プライバシー技術の利点と潜在的な応用シーンは二つの側面に現れます:(1)センシティブデータの訓練;(2)データコラボレーション:複数のデータ所有者が元のデータを共有することなく、AI訓練に共同で参加できます。現在のWeb3で一般的なプライバシー技術には、次のものが含まれます:* Trusted Execution Environment (TEE) (例: Super Protocol);* BasedAI、Fhenix.io、Inco Networkなどの完全準同型暗号化(FHE)。* ゼロ知識技術(zk)、例えば Reclaim Protocol は zkTLS 技術を使用して、HTTPS トラフィックのゼロ知識証明を生成し、ユーザーが外部サイトからアクティビティ、評判、アイデンティティデータを安全にインポートできるようにし、機密情報を露出することなく行います。ただし、現在この分野はまだ初期段階にあり、大部分のプロジェクトはまだ探索中です。現在の一つのジレンマは計算コストが高すぎることであり、いくつかの例は次のとおりです:* zkMLフレームワークE
AIとWeb3の交差:新たな機会と相互エンパワーメント
AI+Web3: タワーとプラザ
TL; 博士
AIコンセプトのWeb3プロジェクトは、一次市場と二次市場で資金を引き寄せるターゲットとなっています。
Web3のAI業界における機会は、分散型インセンティブを使用してロングテールの潜在的な供給を調整することに現れています——データ、ストレージ、計算を横断して;同時に、オープンソースモデルとAIエージェントの分散型市場を構築します。
AIのWeb3業界での主な活用分野は、オンチェーン金融(暗号決済、取引、データ分析)および開発支援です。
AI+Web3の有用性は、両者の相互補完に表れています:Web3はAIの集中化に対抗することが期待されており、AIはWeb3が境界を越えるのを助けることが期待されています。
! AI+Web3: タワー&プラザ
はじめに
ここ2年、AIの発展は加速ボタンが押されたかのようで、Chatgptが引き起こしたバタフライ効果は、生成的人工知能の新しい世界を開くだけでなく、対岸のWeb3でも大きな流れを巻き起こしています。
AIコンセプトの加持のもと、緩やかになった暗号市場の資金調達が明らかに活気づいています。メディアの統計によると、2024年上半期だけで、64のWeb3+AIプロジェクトが資金調達を完了しました。人工知能を基にしたオペレーティングシステムZyber365は、Aラウンドで1億ドルの最高資金調達額を達成しました。
二次市場はさらに活況を呈しており、暗号総合サイトのデータによると、わずか1年余りの間にAI分野の総時価総額は485億ドルに達し、24時間の取引量は86億ドルに近づいています。主流のAI技術の進展による恩恵は明らかで、OpenAIのSoraテキストから動画へのモデルが発表された後、AIセクターの平均価格は151%上昇しました。AIの効果は暗号通貨の資金吸引セクターの一つであるMemeにも波及しています:最初のAIエージェントコンセプトのMemeCoinであるGOATは急速に人気を集め、14億ドルの評価を獲得し、AI Memeブームを成功裏に巻き起こしました。
AI+Web3に関する研究や話題も同様に熱気を帯びており、AI+DepinからAI Memecoin、さらに現在のAI AgentやAI DAOまで、FOMOの感情はすでに新しいストーリーのローテーションの速度に追いついていません。
AI+Web3、この熱い資金、トレンド、未来の幻想に満ちた用語の組み合わせは、資本によって結びつけられたお見合い結婚として見られがちであり、この華やかなローブの下に、実際には投機者の舞台なのか、それとも黎明の爆発の前夜なのかを見分けるのは非常に難しいようです。
この質問に答えるためには、両者にとって重要な思考は、相手がいることでより良くなるのか?相手のモデルから利益を得ることができるのか?この記事では、先人の肩に立ってこのパターンを考察しようとしています:Web3 は AI 技術スタックの各段階でどのように機能し、AI は Web3 に何の新しい活力をもたらすことができるのでしょうか?
パート1 AI スタック下の Web3 にどのような機会があるか?
このトピックを展開する前に、AI大規模モデルの技術スタックを理解する必要があります。
より分かりやすい言葉で全体のプロセスを表現すると、「大モデル」は人間の脳のようなもので、初期段階では、この脳は生まれたばかりの赤ちゃんに属し、周囲の膨大な情報を観察し取り入れてこの世界を理解する必要があります。これがデータの「収集」段階です。コンピュータは人間の視覚や聴覚などの感覚を持っていないため、訓練前に外部の大規模な無標記情報は「前処理」を通じてコンピュータが理解でき、利用可能な情報形式に変換する必要があります。
データを入力すると、AIは「トレーニング」によって理解と予測能力を持つモデルを構築します。これは、赤ちゃんが外界を理解し学ぶ過程に似ています。モデルのパラメータは、赤ちゃんの学習過程で徐々に調整される言語能力のようなものです。学ぶ内容が専門化し始めたり、人との交流を通じてフィードバックを得て修正が行われると、大モデルの「ファインチューニング」プロセスに入ります。
子供たちは徐々に成長し、話すことを学んだ後、新しい対話の中で意味を理解し、自分の感情や考えを表現することができる。この段階はAI大規模モデルの「推論」に似ており、モデルは新しい言語やテキスト入力に対して予測や分析を行うことができる。赤ちゃんは言語能力を通じて感情を表現し、物体を描写し、さまざまな問題を解決する。このことは、AI大規模モデルが訓練を完了し、使用に投入された後に推論段階で特定のタスク(画像分類、音声認識など)に適用されることにも似ている。
AIエージェントは、大規模モデルの次の形態に近づいています。これは、独立してタスクを実行し、複雑な目標を追求できるもので、思考能力を持つだけでなく、記憶、計画もでき、ツールを使って世界とインタラクトすることができます。
現在、AIのさまざまなスタックに対する痛点に対処するために、Web3は現在、AIモデルプロセスの各段階をカバーする多層的で相互接続されたエコシステムを初歩的に形成しています。
! AI+Web3:タワー&スクエア
####1.基本レイヤー:計算能力とデータ用のAirbnb
▎ハッシュレート
現在、AIの最高のコストの一つは、モデルのトレーニングと推論に必要な計算能力とエネルギーです。
一例として、Meta の LLAMA3 は NVIDIA 製の H100 GPU 16,000 台を必要とし(これは人工知能と高性能計算のワークロード向けに設計された最高級のグラフィックスプロセッサユニットです)、トレーニングを完了するのに 30 日かかります。後者の 80GB バージョンの単価は 30,000 ~ 40,000 ドルの間で、4 億 ~ 7 億ドルの計算ハードウェア投資(GPU + ネットワークチップ)が必要であり、同時に月ごとのトレーニングには 16 億キロワット時を消費し、毎月のエネルギー支出は約 2000 万ドルです。
AIの計算力の解放は、Web3が最初にAIと交差した分野であり、DePin(分散型物理インフラストラクチャネットワーク)です。現在、DePin Ninjaデータサイトには1400以上のプロジェクトが掲載されており、その中にはio.net、Aethir、Akash、Render NetworkなどのGPU計算力共有を代表するプロジェクトが含まれています。
その主な論理は、プラットフォームが余剰のGPUリソースを持つ個人または組織が許可なしに分散型の方法で計算能力を提供できるようにすることです。UberやAirbnbのようなバイヤーと売り手のオンラインマーケットを通じて、十分に活用されていないGPUリソースの使用率を向上させ、最終ユーザーはより低コストで効率的な計算リソースを得ることができます。同時に、ステーキングメカニズムは、品質管理メカニズムに違反したりネットワークが中断された場合に、リソース提供者に相応の罰則があることを保証します。
その特徴は次のとおりです:
余剰なGPUリソースを集める:供給者は主に第三者の独立した中小型データセンターや暗号マイニングファームなどのオペレーターの余剰計算リソースで、コンセンサスメカニズムはPoSのマイニングハードウェア、例えばFileCoinやETHマイナーです。現在、exolabのようにMacBook、iPhone、iPadなどのローカルデバイスを利用して、より低い参入障壁で大規模モデル推論の計算ネットワークを構築することに取り組んでいるプロジェクトもあります。
AI計算能力のロングテール市場に直面して:
a.「技術的な観点から見て」分散型コンピューティング市場は推論ステップにより適しています。トレーニングは超大規模なクラスターによるGPUのデータ処理能力により一層依存していますが、推論はGPU計算性能に対する依存度が比較的低く、Aethirは低遅延のレンダリング作業およびAI推論アプリケーションに特化しています。
b.「需要の観点から見ると」中小の計算力需要者は自ら大規模モデルを単独でトレーニングすることはなく、むしろ少数の主要な大規模モデルの周りで最適化や微調整を行うことを選択します。これらのシナリオはすべて、分散型の未使用計算力資源に自然に適しています。
▎データ
データはAIの基礎です。データがなければ、計算は浮草のように無用であり、データとモデルの関係は「ガベージイン、ガベージアウト」ということわざのようなものです。データの量と入力の質が最終的なモデルの出力の質を決定します。現在のAIモデルのトレーニングにおいて、データはモデルの言語能力、理解能力、さらには価値観や人間性の表現を決定します。現在、AIのデータ需要のジレンマは主に以下の4つの側面に焦点を当てています:
データの渇望:AIモデルのトレーニングは大量のデータ入力に依存しています。公開された資料によれば、OpenAIはGPT-4のトレーニングに1兆を超えるパラメータを使用しています。
データ品質:AIと各産業の融合が進む中で、データのタイムリーさ、データの多様性、垂直データの専門性、ソーシャルメディアの感情などの新興データソースの取り入れが、その品質に新たな要求を突きつけています。
プライバシーとコンプライアンスの問題:現在、各国や企業は高品質なデータセットの重要性に徐々に気づき、データセットのクローリングに制限を設けています。
データ処理コストが高い:データ量が多く、処理プロセスが複雑です。公開された資料によると、AI企業の30%以上の研究開発コストは基礎データの収集と処理に使われています。
現在、web3のソリューションは以下の4つの側面に表れています:
1、データ収集:無料で取得できるリアルワールドデータは急速に枯渇しており、AI企業のデータへの支出は年々増加しています。しかし同時に、この支出はデータの真の提供者には還元されておらず、プラットフォームはデータから生まれる価値創造を全て享受しています。例えば、RedditはAI企業とのデータライセンス契約を結ぶことで合計2億300万ドルの収入を実現しました。
真に貢献するユーザーがデータによる価値創造に同様に参加し、分散型ネットワークとインセンティブメカニズムを通じて、低コストでよりプライベートで価値のあるデータを取得することがWeb3のビジョンです。
Grassは、分散型のデータ層とネットワークであり、ユーザーはGrassノードを運営することで、未使用の帯域幅と中継トラフィックを提供し、インターネット全体のリアルタイムデータをキャッチし、トークン報酬を得ることができます;
Vanaは独自のデータ流動性プール(DLP)概念を導入し、ユーザーは自分のプライベートデータ(ショッピング履歴、ブラウジング習慣、ソーシャルメディア活動など)を特定のDLPにアップロードし、これらのデータを特定の第三者に使用することを許可するかどうかを柔軟に選択できます;
PublicAIでは、ユーザーはX上で#AI 或#Web3をカテゴリラベルとして使用し、@PublicAIを付けることでデータ収集を実現できます。
2、データ前処理:AIのデータ処理プロセスでは、収集されたデータが通常ノイズが多く、エラーが含まれているため、モデルを訓練する前にデータをクリーンアップし、使用可能な形式に変換する必要があります。これには、標準化、フィルタリング、欠損値の処理といった繰り返しのタスクが含まれます。この段階はAI業界における数少ない人手によるプロセスであり、データアノテーターという職業が生まれました。モデルがデータの質に対する要求を高めるにつれて、データアノテーターのハードルも上がっていますが、このタスクはWeb3の非中央集権的なインセンティブメカニズムに自然に適しています。
現在、Grass と OpenLayer はデータラベリングという重要なプロセスへの参加を検討しています。
Synesisは「Train2earn」の概念を提唱し、データの質を強調しています。ユーザーは、ラベル付きデータ、注釈、またはその他の形式の入力を提供することで報酬を得ることができます。
データアノテーションプロジェクトSapienは、マーク付けタスクをゲーム化し、ユーザーがポイントをステークしてより多くのポイントを得ることを可能にします。
3、データプライバシーとセキュリティ:明確にする必要があるのは、データプライバシーとセキュリティは異なる概念であるということです。データプライバシーはセンシティブデータの取り扱いに関わり、データセキュリティはデータ情報を無許可のアクセス、破壊、盗難から保護します。したがって、Web3プライバシー技術の利点と潜在的な応用シーンは二つの側面に現れます:(1)センシティブデータの訓練;(2)データコラボレーション:複数のデータ所有者が元のデータを共有することなく、AI訓練に共同で参加できます。
現在のWeb3で一般的なプライバシー技術には、次のものが含まれます:
Trusted Execution Environment (TEE) (例: Super Protocol);
BasedAI、Fhenix.io、Inco Networkなどの完全準同型暗号化(FHE)。
ゼロ知識技術(zk)、例えば Reclaim Protocol は zkTLS 技術を使用して、HTTPS トラフィックのゼロ知識証明を生成し、ユーザーが外部サイトからアクティビティ、評判、アイデンティティデータを安全にインポートできるようにし、機密情報を露出することなく行います。
ただし、現在この分野はまだ初期段階にあり、大部分のプロジェクトはまだ探索中です。現在の一つのジレンマは計算コストが高すぎることであり、いくつかの例は次のとおりです: