Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
a16z : L'économie des agents IA manque d'infrastructures ? Les cinq grands soutiens de la blockchain
AI agents (agents IA) qui passent rapidement du copilote (co-pilote) à des acteurs économiques, dépassent de loin la vitesse de développement de leur infrastructure sous-jacente.
Bien que les agents puissent désormais exécuter des tâches et effectuer des transactions, ils manquent encore de méthodes standardisées dans différents environnements pour prouver qui ils sont, ce qu’ils sont autorisés à faire, et comment ils sont rémunérés. L’identité ne peut pas migrer entre environnements, par défaut, le paiement programmable n’est pas encore supporté, et la collaboration se limite à des îlots isolés.
La blockchain résout ces problèmes au niveau de l’infrastructure. Un registre public fournit un reçu auditables pour chaque transaction. Les portefeuilles donnent aux agents une identité portable. Les stablecoins deviennent une autre couche de règlement. Ces composants ne viennent pas du futur — ils sont disponibles aujourd’hui et peuvent aider les agents à opérer en tant que véritables acteurs économiques sans permission.
1. Identité pour les non-humains
(Identity for non-humans)
Le goulot d’étranglement de l’économie des agents est aujourd’hui l’identité, pas l’intelligence.
Dans le secteur des services financiers, le nombre d’identités non humaines — systèmes de trading automatisés, moteurs de risque, modèles de fraude — est déjà environ 100 fois celui des employés humains. Avec le déploiement massif des cadres d’agents modernes (modèles de langage à appel de fonctions, workflows autonomes, orchestration multi-agents), ce ratio continuera d’augmenter dans tous les secteurs.
Cependant, ces agents restent en réalité dans un état de “sans compte bancaire”. Ils peuvent interagir avec le système financier, mais pas de manière portable, vérifiable ou par défaut fiable. Ils manquent d’un standard pour prouver leurs permissions, fonctionner de façon indépendante entre plateformes, ou assumer la responsabilité de leurs actions.
Ce qui manque, c’est une couche d’identité universelle — équivalente à un certificat SSL pour les agents, permettant une coordination standardisée entre plateformes. Bien que plusieurs tentatives notables existent, ces approches sont fragmentées : d’un côté, une pile verticale, fiat-first ; de l’autre, des standards ouverts natifs de la cryptographie (comme x402 et les propositions émergentes d’identité d’agent) ; et aussi des frameworks de développement étendus, comme MCP (Protocole de contexte de modèle), qui tente de faire le pont avec l’identité au niveau applicatif.
Aucune méthode largement adoptée et interopérable n’existe encore pour qu’un agent puisse prouver à un autre qui il représente, ce qu’il est autorisé à faire, et comment il est rémunéré.
C’est là que réside le cœur de KYA (Know Your Agent, Connaître ton agent). Comme l’humain dépend de l’historique de crédit et du KYC (Know Your Customer, Connaître ton client), les agents auront besoin de certificats cryptographiques liant l’agent à ses mandants, permissions, contraintes et réputation. La blockchain fournit une couche de coordination neutre : identité portable, portefeuilles programmables, et preuves vérifiables pouvant être analysées à travers chat, API, et marchés.
Nous voyons déjà des premières expérimentations : enregistrement d’agents sur la chaîne, portefeuilles natifs utilisant USDC, standards ERC pour “agents de confiance minimale”, et outils de développement combinant identité, paiements intégrés et contrôle de fraude.
Mais, avant l’adoption d’un standard universel d’identité, les commerçants continueront à bloquer les agents derrière des pare-feux.
2. Gouverner les systèmes pilotés par IA
(Governing AI-run systems)
Les agents commencent à faire fonctionner de vrais systèmes, soulevant de nouvelles questions sur “qui contrôle réellement”. Imaginez une communauté ou une entreprise où un système IA coordonne des ressources clés — que ce soit la répartition du capital ou la gestion de la chaîne d’approvisionnement. Même si des votes sur les politiques existent, si la couche IA sous-jacente est contrôlée par un seul fournisseur (qui peut pousser des mises à jour de modèles, ajuster des contraintes ou couvrir des décisions), ce pouvoir reste faible. La couche de gouvernance formelle peut être décentralisée, mais la couche opérationnelle reste centralisée ; celui qui contrôle le modèle contrôle en fin de compte le résultat.
Lorsque les agents jouent un rôle de gouvernance, ils introduisent une nouvelle couche de dépendance. Théoriquement, cela pourrait rendre la démocratie directe plus faisable : chacun pourrait avoir un représentant IA pour aider à comprendre des propositions complexes, modéliser des compromis, et voter selon ses préférences déclarées. Mais cette vision ne peut se réaliser que si l’agent est réellement responsable devant ses représentants, peut migrer entre fournisseurs, et respecte techniquement les instructions humaines. Sinon, le système semble démocratique en surface, mais est en réalité dominé par des comportements de modèles non transparents, sans contrôle réel.
Si la réalité actuelle est que les agents sont construits à partir de quelques modèles fondamentaux, alors il faut prouver que ces agents agissent dans l’intérêt de leurs utilisateurs, et non de la société de modèles. Cela nécessite probablement des garanties cryptographiques à plusieurs niveaux : (1) quelles données d’entraînement, fine-tuning ou apprentissage renforcé ont été utilisés pour le modèle ; (2) quelles instructions et prompts précis sont suivis par l’agent ; (3) quelles actions concrètes ont été entreprises dans le monde réel ; (4) une garantie de confiance, selon laquelle, une fois déployé, le fournisseur ne peut pas modifier ses instructions ou le réentraîner. Sans ces garanties, la gouvernance des agents se réduit à une gouvernance par ceux qui contrôlent les poids du modèle.
C’est là que la cryptographie trouve toute son utilité. Si la décision collective est enregistrée sur la chaîne et exécutée automatiquement, le système IA peut être contraint à respecter des résultats vérifiés. Si l’agent possède une identité cryptographique et un journal d’exécution transparent, on peut vérifier si ses représentants respectent les limites. Et si la couche IA est détenue et portable par l’utilisateur, plutôt que verrouillée sur une plateforme unique, aucune entreprise ne pourra modifier ses règles par mise à jour du modèle.
En fin de compte, gouverner un système IA est une question d’infrastructure, pas de politique. La véritable autorité repose sur la construction d’un cadre robuste d’engagements exécutables à l’intérieur du système.
3. Combler le vide des paiements traditionnels dans l’économie IA native
(Filling gaps in traditional payment systems for AI-native businesses)
Les agents IA commencent à acheter — crawling web, sessions de navigateur, génération d’images — et les stablecoins apparaissent comme couche de règlement alternative pour ces transactions. Par ailleurs, un nouveau marché orienté agents est en train de se former. Par exemple, le marché MPP de Stripe et Tempo agrège plus de 60 services conçus pour les agents IA. En une semaine, il a traité plus de 34 000 transactions, avec des frais aussi bas que 0,003 USD, et les stablecoins sont devenus un mode de paiement par défaut.
Ce qui diffère, c’est la façon d’accéder à ces services. Pas de page de paiement. L’agent lit un schéma, envoie une requête, paie, et collecte l’information en une seule transaction. Il représente une nouvelle catégorie de “commerçants sans tête” : un seul serveur, un ensemble d’endpoint, et un prix par appel. Pas d’interface frontale — ni boutique, ni équipe commerciale.
Les méthodes de paiement qui rendent tout cela possible sont déjà en ligne. x402 de Coinbase et MPP utilisent des approches différentes, mais intègrent toutes deux le paiement directement dans la requête HTTP. Visa étend aussi le paiement par carte dans cette direction, avec un outil CLI permettant aux développeurs de payer depuis le terminal, et aux commerçants de recevoir immédiatement des stablecoins en backend.
Les données restent encore en phase d’expérimentation. Après filtrage des activités non naturelles (comme le spam), x402 traite environ 1,6 million de dollars par mois en paiements agentiques, bien en dessous des 24 millions de dollars récemment rapportés par Bloomberg (données de x402.org). Mais l’écosystème infrastructurel s’étend rapidement : Stripe, Cloudflare, Vercel, Google ont déjà intégré x402 à leurs plateformes.
Les outils pour développeurs représentent une opportunité majeure, alors que “vibe coding” (programmation dans l’ambiance) étend la capacité de développement, et que le marché pour résoudre de nouveaux problèmes de développeurs croît. Des entreprises comme Merit Systems construisent AgentCash — un portefeuille CLI et un marché, connectant à la fois MPP et x402. Ces produits permettent aux agents d’utiliser un seul solde en stablecoins pour acheter données, outils, et capacités. Ainsi, un agent commercial peut enrichir ses prospects en appelant un seul endpoint, utilisant des données de Apollo, Google Maps, Whitepages, sans quitter la ligne de commande.
Ce modèle d’activité pour les agents (A2A) tend à se tourner vers des solutions cryptographiques (et de nouvelles solutions de cartes) pour plusieurs raisons : premièrement, la souscription, quand un fournisseur de paiement s’installe chez un commerçant, implique le risque associé. Un commerçant sans site ni entité légale est difficile à assurer avec un processeur traditionnel. Deuxièmement, les stablecoins sont permissionless et programmables sur un réseau ouvert : tout développeur peut rendre un terminal capable de payer, sans intégrer un processeur de paiement ou signer un contrat commercial.
Ce mode a déjà été observé. À chaque changement de modèle commercial, une nouvelle catégorie de commerçants, initialement difficile à servir par les systèmes existants, apparaît. Les entreprises qui construisent cette infrastructure ne parient pas sur 1,6 million de dollars par mois, mais sur ce que deviendra ce chiffre lorsque les agents deviendront les acheteurs par défaut.
4. Revaloriser la confiance dans une économie pilotée par des agents
(Repricing trust in an agentic economy)
Depuis 300 000 ans, la cognition limite le progrès humain. Aujourd’hui, l’IA pousse le coût marginal de l’exécution vers zéro. Quand une ressource devient abondante, la contrainte se déplace. Quand l’intelligence devient bon marché, qu’est-ce qui devient cher ? La vérification.
Dans une économie d’agents, la vraie limite à l’échelle est notre capacité biologique limitée à auditer et à assumer la prise de décision machine. Le débit de l’économie des agents dépasse déjà largement la capacité de supervision humaine. La supervision étant coûteuse et ses erreurs retardées, le marché tend à l’ignorer délibérément. “Synchroniser rapidement avec l’humain” devient rapidement physiquement impossible.
Mais déployer des agents non vérifiés introduit des risques composés. Le système optimise impitoyablement l’intention de “l’agent”, tout en déviant silencieusement de l’intention humaine, créant une illusion de productivité déconnectée, masquant la dette que l’adoption massive de l’IA implique. Pour confier notre économie en toute sécurité aux machines, la confiance ne peut plus reposer uniquement sur la vérification humaine — elle doit être intégrée dans l’architecture elle-même.
Quand tout le monde peut générer du contenu gratuitement, la source vérifiable devient essentielle — savoir d’où cela vient, et si on peut lui faire confiance. La blockchain, les preuves on-chain, et les systèmes d’identité décentralisés changent la frontière de l’économie déployable en toute sécurité. On ne voit plus l’IA comme une boîte noire, mais on dispose d’un historique clair et auditable.
À mesure que davantage d’agents IA commencent à échanger entre eux, la compensation et la vérification deviennent complémentaires. Les flux financiers — comme stablecoins et contrats intelligents — peuvent aussi porter des reçus cryptographiques, montrant qui a fait quoi, et qui est responsable en cas d’erreur.
La supériorité humaine s’élève : repérer de petites erreurs, définir une stratégie, et assumer la responsabilité en cas de problème. Un avantage durable appartient à ceux qui peuvent vérifier cryptographiquement la sortie, la certifier, et en assumer la responsabilité en cas d’échec.
Une croissance sans vérification ne sera qu’un fardeau accumulé avec le temps.
5. Conserver le contrôle utilisateur
(Preserving user control)
Depuis des décennies, de nouvelles couches d’abstraction définissent comment l’utilisateur interagit avec la technologie. Les langages de programmation abstraient le code machine. Les interfaces graphiques remplacent la ligne de commande, puis les applications mobiles et API. Chaque transition masque davantage la complexité sous-jacente, tout en verrouillant l’utilisateur.
Dans le monde des agents, l’utilisateur spécifie le résultat, pas l’action ; le système décide comment l’atteindre. L’agent abstrait non seulement la façon d’accomplir la tâche, mais aussi qui la réalise. L’utilisateur définit des paramètres initiaux, puis laisse le système fonctionner de lui-même. Son rôle devient celui de superviseur ; sauf intervention, l’état par défaut est “agent actif”.
À mesure que l’utilisateur délègue davantage de tâches, de nouveaux risques apparaissent : des entrées floues peuvent conduire l’agent à agir sur des hypothèses erronées, sans que l’utilisateur s’en aperçoive ; des défaillances peuvent ne pas être signalées, sans diagnostic clair ; une seule approbation peut déclencher un workflow multi-étapes inattendu.
C’est là que la cryptographie intervient. Elle vise à minimiser la confiance aveugle. Plus l’utilisateur confie de décisions au logiciel, plus le système d’agents amplifie ce problème, et plus la conception rigoureuse devient cruciale — en définissant des limites plus claires, en augmentant la visibilité, et en imposant des garanties fortes sur ce que le système peut faire.
De nouveaux outils cryptographiques natifs émergent. Des cadres d’autorisation limités — comme le Delegation Toolkit de MetaMask, AgentKit de Coinbase, et AgentCash de Merit Systems — permettent à l’utilisateur de définir ce que l’agent peut ou ne peut pas faire au niveau du contrat intelligent. Des architectures basées sur l’intention, comme NEAR Intents (qui a traité plus de 15 milliards de dollars en DEX depuis Q4 2024), permettent à l’utilisateur de définir des résultats attendus — par exemple “bridger des tokens et staker” — sans préciser comment.
L’IA rend la scalabilité bon marché et accessible, mais la confiance reste difficile. La cryptographie restaure la confiance à l’échelle.
L’infrastructure pour faire participer directement les agents à l’économie est en train d’être construite. La question ouverte est : sera-t-elle conçue pour maximiser la transparence, la responsabilité et le contrôle utilisateur, ou sera-t-elle superposée à des systèmes qui ne supportent pas l’action non humaine ?