Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Artemis : 2030, la nouvelle ère de l'économie machine. Qui sera le grand gagnant ?
Auteur : Lucas Shin, source : Artemis, compilation : Shaw Finance dorée
Résumé
D’ici 2030, les agents intelligents (AI Agents) deviendront le principal moyen pour les gens d’utiliser Internet.
Un tout nouveau réseau de type “agents” nécessitera des nouveaux canaux de paiement, un système monétaire et des composants de base adaptés.
La valeur se concentrera sur trois niveaux : la couche d’interface, le sujet qui pilote les interactions avec les utilisateurs ; la couche de paiement, le sujet qui intervient dans la circulation des fonds ; et la couche de calcul et d’hébergement, le sujet qui opère les infrastructures de base
Les activités commerciales d’agents intelligents en bout de chaîne longue dépendront de protocoles ouverts.
Commençons par décrire une scène.
Nous sommes en 2030. Tu as 24 ans, tu habites Burlington, dans le Vermont, et tu aimes investir — tu mets surtout ton capital sur les actions américaines, et tu participes aussi, sur Kalshi, à des transactions de crypto-monnaies et de marchés de prédiction. Il y a deux mois, tu as créé à temps partiel une société de conseil en fintech.
Certains jours, comme aujourd’hui, l’ouverture est toujours brutale.
Bzzz ——
La sonnerie du téléphone te réveille, comme une douche froide sur le visage. C’est ton agent intelligent privé Nexus qui t’envoie un message :
Qu’est-ce qui s’est passé pendant que tu dormais ?
Nexus a envoyé un sous-agent de recherche, coûtant 0,24 dollar. Pendant la nuit, il a récupéré les informations de 40 fournisseurs de données différents, a comparé le contenu de la dernière conférence téléphonique sur les résultats de Walmart avec les images satellites des parkings de magasins aux États-Unis, puis a mis à jour la logique d’investissement. Quand les données satellites ont montré que le flux de clients de Walmart est en baisse, l’agent de ton portefeuille a mis en correspondance le marché des résultats financiers de Kalshi, a confirmé le signal bearish et a finalisé la réduction de position avant que tu te réveilles. Il y a quatre ans, ce type de stratégie de trading était encore un domaine réservé de Citadel (城堡证券) et de quelques fonds quantitatifs — ils devaient payer des millions de dollars pour s’abonner à des images satellites. Même un terminal Bloomberg à 30k dollars par an ne pouvait pas couvrir l’ensemble des informations — tu devais encore t’abonner séparément à des images satellites, à des données alternatives, et y consacrer des heures pour intégrer et analyser. Et maintenant, un jeune de 24 ans dans le Vermont peut, pour le coût de moins d’une tasse de café, obtenir un avantage informationnel équivalent à celui d’un analyste quant de Citadel.
Le sous-agent commercial de Nexus a filtré 200 leads correspondant à ton profil de clients cibles — des entreprises fintech basées dans le Sud-Est des États-Unis, en série B et suivantes, qui n’utilisent pas encore de fournisseurs de services de données — et a complété l’information à un coût de 0,002 dollar par lead. Les interfaces appelées ont été développées par un autre agent et mises en ligne sur un marché ouvert. Il a identifié 3 leads avec l’intention la plus élevée, puis a contacté leurs agents de planning pour négocier des horaires de réunion. Avant chaque échange, il a récupéré l’école d’obtention du diplôme du prospect, les relations communes, les actualités de l’entreprise et l’historique de financement, puis t’a préparé un brief d’une page épinglé dans les notes de réunion. À lui seul, le remplissage des informations de leads : si tu passes par un abonnement SaaS, chaque compte coûte 200 dollars par mois.
Le sous-agent d’opérations de Nexus a comparé ton site de conseil avec 6 fournisseurs de serveurs : Vercel, Render, Railway, Fly.io, Netlify et Cloudflare. Il appelle les interfaces API d’essai de chaque serviceur à très faible coût, déploie des environnements de test et mesure la latence, la disponibilité et le débit. Finalement, Railway obtient des performances équivalentes pour un tiers du coût. Nexus a conclu le forfait mensuel via l’agent de tarification de Railway, a reconstruit une copie miroir du site sur le nouveau serveur et a réalisé l’ensemble des tests pour s’assurer que tout fonctionne correctement. Sans agents, cela prendrait au moins une semaine : rechercher sur Internet, demander des devis, et subir des migrations manuelles anxiogènes. Toi, tu n’as qu’à confirmer à Nexus d’exécuter.
Ton agent a accompli tout cela, pour seulement 0,67 dollar.
Maintenant, multiplie cette scène par chaque travailleur du savoir dans le monde, par chaque entreprise, et par chaque agent intelligent en fonctionnement.
Bzzz ——
Comme la semaine dernière, tu recharges 5 dollars via la carte de crédit liée par Apple Pay, puis tu continues à te brosser les dents. En coulisses, ces 5 dollars sont convertis depuis ta carte de crédit en stablecoins — mais tu ne vois jamais le portefeuille. Pas besoin de te soucier d’un dépôt, et tu n’as même pas besoin de toucher à la blockchain.
Voici un aperçu de l’économie des machines — un tout nouveau scénario d’affaires : des agents IA dépensent en continu pour des choses que les humains n’ont jamais payées, avec des volumes de transactions et une rapidité bien au-delà de la portée du commerce humain. On peut imaginer que des milliards de transactions se produisent chaque jour.
Mais aujourd’hui, Internet n’est pas encore prêt à tout supporter.
À l’heure actuelle, Internet a été conçu pour les humains. Il filtre les comportements non humains grâce à la limitation du trafic, aux CAPTCHA et aux clés d’API, et monétise les utilisateurs humains via la publicité. Cependant, avec l’apparition massive d’agents autonomes, ce modèle économique va s’effondrer totalement.
Explosion du trafic, baisse drastique de l’attention réellement captée.
Les serveurs réseau financés à long terme par les revenus publicitaires feront face à des requêtes multipliées par plusieurs ordres de grandeur, et ces requêtes ne seront jamais influencées par la publicité.
Les paiements par agents résolvent naturellement ce problème : les micro-paiements deviendront la clé d’accès.
Accès par paiement, extraction par paiement, utilisation par paiement.
Les entreprises qui construiront l’infrastructure qui sera ensuite largement adoptée par les agents capteront le plus grand nouveau bassin d’activité économique que cette génération puisse observer. Les géants actuels se positionnent déjà, mais l’économie des machines engendrera aussi ses propres nouveaux géants. La dernière vague de “nouvel Internet” a donné naissance à Google, Amazon, Facebook, PayPal et Salesforce.
L’ère de l’Internet à agents intelligents est sur le point d’arriver.
Perspectives de taille de marché
D’ici 2030, la grande majorité des interactions sur le réseau ne se feront plus via un navigateur. Nos agents intelligents navigueront, testeront, négocieront, formeront des équipes de sous-agents et exécuteront des transactions en leur nom. Chaque tâche qu’ils accomplissent génère une série de micro-paiements. Ces coûts unitaires semblent être une nouvelle dépense, mais en réalité, ils remplacent des coûts bien plus élevés liés à des outils et à de la main-d’œuvre. Plus les outils sont avancés, meilleures seront les performances des agents, et nous leur accorderons aussi des niveaux d’autonomie plus élevés.
Demande et vitesse d’adoption
Faisons une estimation grossière.
Dans le cas précédent, l’agent de Joe effectue des centaines de transactions pour seulement 0,67 dollar. Si l’on étend cette échelle à une entreprise de taille intermédiaire de 500 personnes — un agent personnel par employé, plus des centaines d’agents partagés pour les départements commerciaux, finance, juridique, opérations, etc. — on atteint facilement 100k transactions par jour initiées par des agents.
Le nombre de travailleurs du savoir dans le monde dépasse 1 milliard, dont 88 % utilisent déjà l’IA au travail. Le volume côté demande est gigantesque et continue de croître. Mais pour l’instant, ces usages restent majoritairement limités à des tâches de base, comme la recherche web, le résumé de documents ou la rédaction d’e-mails. La transformation complète vers des agents intelligents n’a pas encore eu lieu, mais une fois lancée, la vitesse sera très élevée.
Instagram a atteint 100 millions d’utilisateurs en 30 mois ; TikTok en 9 mois ; et ChatGPT seulement en 2 mois (données Reuters / UBS). L’une des raisons de la diffusion rapide de ChatGPT est que l’interface conversationnelle est déjà familière pour tout le monde, et qu’il n’y a pas besoin d’apprendre de nouveaux logiciels ni de changer ses habitudes d’utilisation — il suffit de décrire le besoin, et l’agent fera de son mieux pour y parvenir.
Le seul obstacle est la confiance, et la vitesse à laquelle la confiance se construit dépasse largement les attentes des gens. À ce jour, Claude Code a déjà contribué à 4 % de toutes les contributions de code publiques sur GitHub (plus de 135k fois par jour). En supposant le taux de croissance actuel, d’ici fin 2026, on dépassera 20 %. Cela signifie une croissance de 42 896 fois en seulement 13 mois. Les développeurs ont mis juste plus d’un an pour passer du scepticisme à la production à grande échelle de code confié à l’IA.
À mesure que les modèles deviennent plus intelligents, que les interfaces se simplifient davantage et que de plus en plus de complexités techniques sont abstraites et cachées, je pense que la vitesse d’adoption des agents intelligents va encore s’accélérer.
D’ici 2030, même si seulement 60 % des travailleurs du savoir utilisent des agents, les dépenses moyennes quotidiennes seront de 3 à 5 dollars (et il s’agit déjà d’une estimation prudente — sachant que l’agent de Joe a terminé trois tâches avant le petit-déjeuner pour seulement 0,67 dollar). À elles seules, les transactions d’agents côté personnel atteindront 800 milliards à 1,4 mille milliards de dollars par an.
Marché des entreprises
Robbie Peterson, de Dragonfly, indique dans son article que la forme logique d’évolution des agents intelligents commerciaux passe par un modèle SaaS. Je suis entièrement d’accord. Ils ne se contentent plus d’assister les processus de travail : ils vont remplacer entièrement les processus existants. Comme aujourd’hui, plus de 95 % des dépenses logicielles proviennent des entreprises et des institutions gouvernementales, le volume d’adoption et le niveau de dépense des agents intelligents côté entreprise vont très probablement dépasser largement le marché individuel.
Nous assistons déjà à cette transformation. Klarna a remplacé Salesforce par son système d’IA interne, économisant environ 2 millions de dollars. ZoomInfo a construit des agents IA pour remplacer son département d’approbation des transactions, économisant plus de 1 million de dollars par an. Ce ne sont que des exemples précoces : des workflows individuels ont été “agentisés”, économisant des coûts de plusieurs millions. Chaque entreprise compte des centaines de processus de ce type dans ses départements commerciaux, finance, juridique, opérations et R&D. Une fois que les agents intelligents seront déployés à l’échelle de toute l’entreprise, l’ampleur des dépenses concernées sera extrêmement impressionnante.
Chacun peut devenir commerçant
Avec la baisse massive des coûts de développement due aux agents de code, le seuil d’entrée pour les commerçants sur Internet se rapproche de zéro. Un wedding planner qui excelle dans la sélection de lieux peut emballer et vendre un workflow optimal. Un développeur indépendant à Lagos peut développer une API pour un domaine vertical et, en quelques heures, commencer à générer des revenus grâce aux agents dans le monde entier. Tout ce dont tu as besoin, c’est d’avoir l’expertise : générer une interface API via des prompts, puis commencer à encaisser.
Mais que se passe-t-il si les agents commencent à vendre des services à d’autres agents ?
Supposons que Joe, mentionné plus tôt, veut entrer dans un nouveau domaine : des entreprises médicales de taille intermédiaire au Midwest américain qui disposent d’infrastructures de paiement vieillissantes. Si son agent raisonne et construit à partir de zéro, les coûts en tokens vont s’accumuler rapidement :
Filtrer 200 entreprises correspondant à un profil spécifique (raisonnement + appels d’API) : environ 5 000 00 tokens
Compléter l’information de chaque lead (stack technologique, financement, données de recrutement) : 200 leads × environ 5 000 tokens = 1M tokens
Identifier les décideurs des clients clés : environ 200k tokens
Scorer l’intention via des signaux (rythme de recrutement, durée des contrats) : environ 300k tokens
Étudier le profil de chaque décideur : 20 leads × environ 10k tokens = 200k tokens
Rédiger des messages de contact personnalisés : 20 leads × environ 3 000 tokens = 60k tokens
Total : environ 2.3M tokens. En calculant avec le modèle de pointe Opus 4.6, le coût se situe entre 8 et 15 dollars.
Attends, l’agent commercial de Joe n’avait pas fait un workflow similaire pour seulement quelques centimes ?
Oui. Parce que la plupart des étapes ont déjà été résolues par d’autres agents. Le remplissage des leads, le scoring d’intention et la planification des réunions existent déjà sous forme d’interfaces packagées sur le marché ouvert, au prix de quelques centièmes de dollar.
Ce modèle crée un tout nouveau scénario économique. Le côté offre du marché va croître dans les deux sens : les humains construisent des services, et les agents construisent aussi des services. Un problème à forte consommation de tokens résolu par un agent peut devenir un outil bon marché utilisable par tous les agents par la suite. Dans un monde comme celui-là, les agents peuvent transformer leur expérience en workflows, puis les vendre à d’autres agents, afin de subventionner leurs propres coûts de fonctionnement.
Chaque basculement de paradigme engendre de nouveaux commerçants. Shopify a donné du pouvoir aux vendeurs e-commerce, Stripe a donné du pouvoir aux entreprises en ligne, et l’économie des machines donnera du pouvoir aux développeurs “ad hoc” et aux agents intelligents autonomes.
Regard lucide sur la réalité
Alors, à quelle distance sommes-nous du véritable commerce de transactions “monétisées” par des agents intelligents ?
Dans mon équipe Artemis, nous suivons depuis longtemps les progrès de deux principaux protocoles de paiement par agents : le protocole x402 open-source de Coinbase, et le protocole de paiement machine (MPP) lancé conjointement par Stripe et Tempo. En termes simples, ces deux catégories de protocoles poursuivent exactement le même objectif : permettre à un utilisateur ou à un agent de payer un service réseau quelconque (données, extraction de pages web, inférence de modèles ou autres services API) en une seule requête réseau, sans les démarches fastidieuses comme l’inscription de comptes, les clés d’API, le règlement de factures, etc.
Pour l’instant, c’est encore un stade très précoce.
Le volume de transactions du protocole x402 fin 2025 a été artificiellement gonflé par le battage autour des memecoins et le “brossage” des volumes via les classements. La figure ci-dessus montre l’activité réelle des transactions, après ajustement à la suite du filtrage des transactions fictives avec un algorithme propriétaire. En éliminant le bruit lié aux transactions fictives et aux memecoins, on constate clairement que l’économie des agents n’est pas encore vraiment arrivée. L’essentiel de l’activité actuelle consiste à ce que des développeurs testent des API payantes et des outils IA, plutôt qu’à ce que des agents économiques “réels” fassent tourner l’économie.
Avant que ce modèle n’explose réellement, deux problèmes majeurs doivent être résolus :
Le côté offre n’est pas encore formé : le nombre d’interfaces API utiles capables de créer de la demande réelle de paiement de la part des agents est gravement insuffisant.
L’absence d’une couche mature de découverte et d’agrégation : même s’il existe des interfaces à forte valeur, les agents n’ont pas encore de moyen fiable de les découvrir.
Comme l’écosystème est encore en développement, utiliser le volume de transactions comme indicateur principal est prématuré. Un indicateur plus pertinent est la croissance du côté offre, c’est-à-dire le nombre de marchands fournissant des services aux agents. Nous regroupons ces marchands sous le terme global de fournisseurs de services.
Le graphique ci-dessus montre l’évolution cumulée du nombre de fournisseurs de services (vendeurs) répondant aux critères au fil du temps. Un vendeur conforme doit satisfaire : effectuer plus de deux “transactions” réelles et compter au moins deux acheteurs distincts. En octobre dernier, ce chiffre n’était pas encore supérieur à 100, mais aujourd’hui il dépasse 4 000. Je pense que ce taux de croissance va encore s’accélérer, principalement sous l’impulsion de trois tendances :
L’IA réduit les barrières à la création de produits numériques (comme décrit plus haut), ce qui signifie que davantage de personnes et d’agents IA deviendront des marchands.
Les nouveaux services seront conçus “agents d’abord”. Les agents deviennent les clients clés, et les formes de produits créées pour eux seront radicalement différentes : des API à la place des pages web, un accès instantané à la place des processus d’inscription, et un paiement à la demande à la place des abonnements.
Les fournisseurs de services existants seront contraints d’effectuer une transition. À mesure que de plus en plus d’utilisateurs interagissent via des interfaces d’IA plutôt que de naviguer manuellement sur des pages web, le modèle économique basé sur la publicité cessera totalement de fonctionner, car il n’y aura plus d’attention humaine monétisable. Les entreprises n’auront d’autre choix que de facturer directement le contenu et les services.
Ces forces créeront un effet de roue positive : l’offre et la demande se renforcent mutuellement, pour finalement allumer toute l’économie des agents.
Positionnement dans l’industrie
L’architecture de l’écosystème de transactions d’agents se met rapidement en place. De nombreuses startups apparaissent comme des champignons, chacune ciblant les maillons vides de cette architecture ; en parallèle, les entreprises du secteur fintech et des services logiciels (SaaS) passent à des transactions d’agents natives. Au cours des douze derniers mois, presque tous les grands acteurs du paiement et les laboratoires d’IA de premier plan ont lancé ou annoncé des protocoles liés aux transactions d’agents.
Nous avons identifié plus de 170 entreprises couvrant cinq grands niveaux : interfaces d’interaction, agents intelligents, système de comptes, infrastructures de paiement, et moteurs d’intelligence artificielle. Ici, nous les condenseons en environ 80 institutions clés :
Nous décomposons de haut en bas, couche par couche.
Couche d’interface
La couche d’interface est la plus proche des utilisateurs : elle est chargée d’orienter l’intention de l’utilisateur (le besoin) vers les outils ou services requis (l’offre). Celui qui définit la manière dont les agents intelligents découvrent, évaluent et choisissent les services contrôle alors fortement toutes les couches en dessous. Nous nous concentrons sur deux catégories les plus importantes au sein de cette couche :
Interface utilisateur
C’est le point d’entrée par lequel la plupart des gens interagissent directement avec les agents intelligents. Apple, Google, OpenAI, Anthropic, xAI et Perplexity construisent tous ces interfaces d’interaction, et leur forme évolue rapidement au-delà du simple mode “chat”. De nouvelles formes émergent en continu : assistants vocaux, assistants sur ordinateur de bureau, copilotes embarqués, agents de navigateur, etc., très proches des scénarios d’utilisation réels des utilisateurs. Devenir la plateforme par défaut pour l’interface IA des utilisateurs, et donc le point de départ de toutes les transactions initiées par les agents, permettra au vainqueur de cette piste d’obtenir un avantage supplémentaire énorme.
Les laboratoires d’IA ont déjà “scrapé” et entraîné l’ensemble d’Internet ; aujourd’hui, les meilleures données d’entraînement restantes sont les retours de guidage humains. Chaque fois que tu acceptes ou refuses une réponse, effectues une correction, ou fournis des informations de préférence à Claude ou ChatGPT, l’interface d’interaction que tu utilises capture ces données pour les vendre ou les utiliser pour entraîner des modèles. Contrôler l’interface revient à contrôler la boucle de feedback qui optimise à la fois l’expérience utilisateur et le modèle lui-même. C’est aussi la raison pour laquelle Anthropic a lancé Claude Code, pourquoi Google a acquis Windsurf et pourquoi OpenAI tente d’acquérir Cursor. Une fois que ton agent a accumulé du contexte sur tes préférences, tes workflows et tes outils courants, le coût de migration pour l’utilisateur deviendra extrêmement élevé.
Découverte de services
Lorsque l’agent de Joe a besoin d’une interface pour compléter des leads ou d’un fournisseur de données satellites, comment trouver le bon service ? C’est peut-être le plus grand défi non résolu dans toute l’architecture de l’écosystème. Les solutions actuelles sont pour la plupart des listes d’outils codées en dur ou des places de marché “sélectionnées”. Les grandes plateformes construisent déjà leur propre système : OpenAI et Stripe ont lancé l’ACP, Google et Shopify ont lancé l’UCP, Visa a lancé le TAP. Fondamentalement, ce sont des répertoires marchands : ils ne fonctionnent que si la plateforme et les marchands s’y intègrent activement. Ce type de modèle fonctionne bien dans des scénarios courants, mais à mesure que le seuil de création et de vente de services numériques baisse fortement, beaucoup d’applications de niche et hautement personnalisées vont émerger, et le modèle “sélectionné” ne peut pas répondre aux besoins de longue traîne.
Des entreprises comme Coinbase, Merit Systems, Orthogonal et Sapiom construisent des alternatives ouvertes : elles développent des agrégateurs et des infrastructures sous-jacentes, permettant aux agents de rechercher et d’utiliser des services en payant directement au moment de l’exécution, sans intégration préalable ni accord commercial. Avec une croissance exponentielle du côté offre (ressources réseau), résoudre ce problème devient extrêmement difficile. Mais celui qui saura vaincre le tri et les systèmes de recommandation pour que l’agent associe au bon moment le bon service, s’emparera du pouvoir de parole considérable dans l’industrie.
Les transactions d’agents vont-elles évoluer vers un modèle fermé et sélectionné, ou vers un modèle d’écosystème ouvert ? Et comment cette configuration déterminera la répartition de la valeur — c’est l’un des débats les plus centraux du domaine. Nous approfondirons ce sujet plus tard.
Couche des agents intelligents et des comptes
Pour accomplir les tâches, un agent intelligent ne suffit pas d’être “intelligent”. L’agent commercial de Joe exécute l’ensemble du processus : sélection de 200 leads, complétion d’informations, et réservation de trois réunions, sans que Joe n’ait à configurer des outils, gérer des clés d’API, ni approuver étape par étape chaque action. La plupart des infrastructures qui rendent tout cela possible sont “transparentes” pour l’utilisateur final, mais sans elles, l’agent n’est qu’un grand modèle de langage sans capacité d’exécution. Voici un aperçu des composants d’infrastructure essentiels nécessaires pour tout cela :
Outils et standards
Ces protocoles et cadres donnent aux agents intelligents la capacité d’interagir avec le monde extérieur. MCP (Machine Communication Protocol), lancé par Anthropic et désormais géré par la Linux Foundation, permet aux agents de se connecter à des données et des outils externes : appeler des API jamais vues, lire des bases de données ou invoquer instantanément un service. A2A (proposé par Google) définit comment des agents développés sur différentes plateformes peuvent se découvrir mutuellement et collaborer. LangChain, les cadres mis en place par Nvidia et Cloudflare fournissent aux développeurs des blocs de base pour créer et déployer des agents par-dessus ces protocoles. OpenClaw, récemment acquis par OpenAI, intègre la gestion du contexte et l’appel des outils dans un seul cadre localisé en priorité, réduisant fortement la difficulté pour les développeurs de construire des agents capables de se découvrir et d’utiliser des services moyennant paiement.
Le problème central dans ce domaine est : les standards vont-ils finalement converger vers l’unification ou se fragmenter ? Les cadres commerciaux construits au-dessus de ces standards pourront-ils capturer de la valeur avant que les outils ne deviennent homogènes ?
Authentification
Une fois que les agents peuvent communiquer entre eux, il faut encore établir la confiance. Avant d’effectuer une transaction ou de vendre un service, un agent doit prouver son entité autorisée et ses droits d’action, et conserver des registres d’actions que les autres agents peuvent vérifier.
Les voies techniques actuelles sont diverses, notamment : vérification d’identité biométrique (Worldcoin, Civic), systèmes de réputation d’agents on-chain (ERC-8004), et preuves d’identité vérifiables (Dock, Reclaim).
Le champ de conception dans ce domaine est vaste, mais le risque est extrêmement élevé : quel montant maximum ton agent peut-il dépenser avant d’obtenir ton approbation ? Peut-il signer des contrats en ton nom ? Peut-il déléguer des autorisations à des sous-agents ? Ces règles et frontières de sécurité seront très probablement fixées définitivement dans la couche des comptes.
Portefeuilles
Évidemment, pour effectuer des paiements, les agents doivent être équipés d’un portefeuille. Coinbase, Safe, MetaMask, Phantom, MoonPay, Privy et bien d’autres préparent ce domaine, avec des fonctionnalités incluant l’accès et la création programmatiques, la délégation de permissions, des plafonds de dépenses pour les transactions individuelles, une liste blanche pour encaisser, et la capacité de fonctionner sur plusieurs chaînes, sans que l’utilisateur doive confirmer manuellement chaque opération. C’est l’une des pistes les plus concurrentielles de l’écosystème, ce qui soulève une question clé : où se situe exactement la “douve” (avantage défensif) des entreprises ? Ce domaine finira-t-il par être homogénéisé ?
Couche de paiement
La couche de paiement se situe plus en profondeur dans l’architecture, et devrait être “invisible” pour l’utilisateur final, mais dans l’économie des machines, chaque unité de fonds y passera. Lorsque l’agent de Joe paie 0,24 dollar pour récupérer des données auprès de 40 fournisseurs pendant la nuit, il n’a pas besoin de choisir une carte, une devise ou une blockchain de règlement à chaque transaction.
La difficulté fondamentale vient du fait que les canaux de paiement traditionnels sont conçus pour l’humain qui clique sur “acheter”, et non pour adapter des API de milliers d’appels par minute et dont le montant unitaire est inférieur à un centime. Sur les réseaux de cartes, chaque transaction a un coût fixe d’environ 0,03–0,04 dollar, plus des frais de 2,3 %–2,9 %. Cela fonctionne pour une commande d’hôtel à 400 dollars, mais ne s’adapte pas du tout aux nouvelles transactions “multi-étapes” initiées par des agents.
Cela engendre une série de nouveaux protocoles et systèmes monétaires conçus spécialement pour les transactions d’agents, tandis que les anciens géants modifient aussi leurs infrastructures existantes pour s’adapter à ces besoins.
Les points clés sont les suivants :
Canaux de paiement
Ces protocoles et standards définissent comment les agents intelligents initient, routent et finalisent le règlement des paiements. À l’heure actuelle, deux grandes voies techniques se dégagent :
x402 (Coinbase/Cloudflare) et MPP (Stripe/Tempo) sont conçus pour les transactions nativement “machine” : l’agent appelle l’interface, obtient un devis, signe le paiement et reçoit les données — le tout en une seule requête HTTP. Le règlement se fait en stablecoins, et le coût par transaction n’est que de quelques centièmes de dollar.
ACP (OpenAI/Stripe), AP2 (Google/PayPal) et le TAP de Visa suivent une autre approche : modifier l’infrastructure de paiement des cartes bancaires existante pour s’adapter aux scénarios d’agents. Ces solutions sont plus adaptées aux transactions à forte valeur : par rapport à la vitesse et au coût de règlement, la protection acheteur et la couverture d’acceptation marchande sont plus importantes.
Stablecoins et règlement
Les agents intelligents ont besoin d’une monnaie programmable, rapide, peu coûteuse et mondialement accessible. Les stablecoins répondent parfaitement à ces exigences, ce qui en fait un choix naturel pour les transactions x402 et MPP. En parallèle, les canaux de paiement par carte peuvent toujours fournir une protection acheteur, et les habitudes de paiement des commerçants sont déjà mûres — ce qui reste important pour les transactions à forte valeur. Les blockchains sous-jacentes (comme Base, Solana, Tempo) apportent aussi un enjeu crucial : quelles chaînes peuvent supporter le débit de traitement requis par les transactions de grande échelle initiées par des agents, la finalité des transactions et la structure des coûts ?
Fournisseurs de services
Ces institutions agissent comme intermédiaires entre les agents intelligents et les commerçants : elles gèrent les contrôles de conformité, l’intégration des commerçants, l’authentification des permissions, et d’autres processus complexes. Coinbase, Stripe et PayPal étendent leur écosystème existant pour soutenir les transactions d’agents : elles parient sur le fait que leur réseau de marchands et leurs infrastructures de conformité peuvent créer un avantage concurrentiel. D’autres institutions comme Sponge et Sapiom abordent le problème depuis le côté des marchands émergents, en résolvant la difficulté de démarrage (cold start), pour permettre à toute activité basée sur API de commencer facilement à accepter des paiements par agents. À mesure que les canaux de paiement, les protocoles et le nombre de commerçants augmentent, les coordinateurs pourraient devenir la clé de connexion qui empêche l’ensemble du système de se fragmenter.
Couche du moteur IA
Cette couche ne nécessite pas beaucoup de présentation : toutes les interactions des agents, les étapes de raisonnement et les appels d’outils sont pilotés par elle. Mais la vitesse de changement du modèle économique de cette couche est bien plus rapide que celle des autres parties de l’architecture, et la valeur finale ne coule pas aussi clairement qu’on pourrait l’imaginer à première vue. Nous nous concentrons sur deux grandes catégories :
Calcul et hébergement
À chaque fois que l’agent intelligent de Joe effectue un raisonnement sur une tâche, appelle un outil ou crée un sous-agent, il consomme des ressources de calcul. Mais l’inférence de modèle n’est qu’une partie du coût. Avec l’explosion des applications “low code / développement improvisé” et des services créés par des agents eux-mêmes, un grand nombre de nouvelles interfaces émergent, et elles ont toutes besoin d’un support d’hébergement. D’ici mai 2025, le nombre de pages web accessibles a augmenté de 45 % en seulement deux ans. Et à mesure que les agents de code rendent le lancement de nouveaux services extrêmement simple, cette croissance ne fera qu’accélérer. Cela signifie que la demande en calcul augmente simultanément des deux côtés : d’une part, plus d’agents traitent plus de tâches ; d’autre part, plus de services se lancent pour répondre à ces besoins.
Les fournisseurs cloud hyperscale (AWS, Google Cloud, Nvidia) sont des participants évidents, dont AWS et Google Cloud simplifient aussi continuellement le déploiement de l’agent backend et des API sur leurs infrastructures. Cloudflare se concentre sur le edge computing, offrant des capacités serverless à faible latence pour les services orientés agents. Des plateformes décentralisées de calcul comme Akash, Bittensor, Nous, etc. répondent aux besoins en surcapacité de calcul en intégrant des ressources GPU mondiales et en les vendant à très faible prix.
Grands modèles de base
Les grands modèles de base sont le “cerveau” de l’ensemble du système. Anthropic, OpenAI, Google et Meta, en tant que laboratoires de pointe, repoussent constamment les limites des capacités des agents intelligents, et le coût de fonctionnement de ces modèles baisse rapidement. Fin 2022, exécuter un modèle de niveau GPT-4 coûtait environ 20 dollars par million de tokens ; début 2026, avec des performances équivalentes, le coût tombe à environ 0,05 dollar par million de tokens. En à peine plus de trois ans, la baisse atteint 600 fois. Les mises à niveau du matériel, la concurrence entre les fournisseurs, et les optimisations comme le caching de prompts et le traitement par lots contribuent toutes à réduire continuellement les coûts d’inférence. Parallèlement, à mesure que les logiques d’inférence sont raffinées dans des modèles de poids ouverts plus petits et que les coûts d’exécution sont très faibles, le coût de construction d’agents intelligents baisse fortement. Dans certains benchmarks, l’écart de performance entre modèles à poids open source et modèles à code fermé s’est réduit à seulement 1,7 %.
C’est une excellente nouvelle importante pour l’économie des machines.
Des agents intelligents moins chers signifient des agents plus économiques, ce qui permet aussi à un fondateur indépendant de 24 ans dans le Vermont d’assumer facilement les coûts d’exécution — et cela stimule en retour l’activité transactionnelle dans toutes les couches supérieures de l’écosystème. Si les grands modèles se retrouvent entraînés dans une guerre des prix comme c’est le cas aujourd’hui chez les fournisseurs de services cloud, la valeur pourrait finalement se concentrer dans les couches en amont et en aval de la couche modèle, plutôt que dans le modèle lui-même.
Qui sera gagnant ?
D’ici 2030, la plupart de tes interactions numériques n’auront plus besoin d’un navigateur, d’un moteur de recherche ou d’un app store. Il te suffit d’exprimer ton besoin, et l’agent intelligent s’occupe de tout : trouver le bon service, négocier les conditions, effectuer le paiement, puis livrer le résultat final. Internet affichera alors un visage complètement différent.
On peut le comprendre comme : une ère d’optimisation des moteurs de recherche orientés agents. Il y aura de plus en plus d’interfaces API et de moins en moins d’interfaces orientées humains.
Dans un monde comme celui-là, qui captera la valeur ?
Sam Laggarsdale, de Merit Systems, a écrit un article comparant l’écosystème actuel de transactions par agents avec l’Internet des débuts. Il estime que les marchés de services “sélectionnés” d’agents construits par les grandes plateformes (ACP, UCP, TAP) empruntent la vieille route de l’Amérique des années 90 d’America Online (AOL) : une expérience raffinée, un système fermé, mais avec une limite centrale — tous les fournisseurs de services doivent passer par une sélection et un audit humains. Les protocoles ouverts comme x402 et MPP, bien qu’ils soient plus “grossiers”, ont des caractéristiques sans permission : tout le monde peut déployer une interface, sans équipe business ni audit juridique, et gagner de l’argent grâce aux agents. Dans les années 90, l’expérience produit fermée du “jardin clos” était meilleure ; mais l’Internet ouvert a une infinité de possibilités.
Finalement, l’Internet ouvert gagne.
La même logique se répète. ACP, UCP et TAP s’intégreront aux meilleurs laboratoires d’IA, et serviront parfaitement les scénarios grand public, mais ils se limitent à des agents capables d’accéder uniquement à une liste de fournisseurs déjà validés au préalable : ils peuvent seulement accomplir les tâches prédéfinies par la plateforme. En revanche, les agents capables d’accéder à l’ensemble de l’écosystème de protocoles ouverts auront des frontières de capacité beaucoup plus larges.
À noter : la partie la plus dynamique d’Internet aujourd’hui vient précisément de la longue traîne de trafic web ouverte en masse rendue possible par le protocole HTTP.
Nous devons humblement reconnaître que nous ne pouvons pas imaginer l’intégralité de l’Internet d’agents ouverts. Comme en 1995, personne ne pouvait prédire l’apparition des voitures de mise en relation (ridesharing) ou des réseaux sociaux ; et une fois que l’on fournit les outils nécessaires aux agents, on ne peut pas non plus savoir ce qu’ils créeront, quelles innovations feront acheter, et quels services seront payés.
Comme nous l’avons discuté plus tôt, les grands modèles de base convergent rapidement vers une homogénéisation, et la valeur pourrait se déplacer vers d’autres couches de l’architecture technologique. Les outils de développement, les portefeuilles et les infrastructures d’identité sont essentiels, mais à mesure que les standards se consolident, ces domaines risquent aussi de s’homogénéiser. C’est pourquoi je pense que la valeur va se concentrer dans trois domaines : l’interface d’interaction, le paiement et le calcul.
Interface d’interaction
L’interface d’interaction détermine les plafonds de dépense, les étapes d’approbation et le mécanisme de délégation de confiance. Une plateforme capable d’offrir l’expérience la plus personnalisée aux utilisateurs transportera le plus grand volume de trafic de transactions.
Apple est l’acteur le plus sous-estimé dans ce domaine. Ses appareils sont profondément intégrés à la vie quotidienne des gens, et le coût de migration des utilisateurs est très élevé. Si Siri évolue en une interface d’interaction d’agent mature, Apple n’aura même pas besoin de construire les meilleurs modèles pour contrôler le point de départ de dizaines de milliards de transactions. Elles n’auront qu’à maintenir l’interface d’interaction la plus performante.
La transition de Google est encore plus difficile. Passer d’un humain qui navigue manuellement à un filtrage intelligent par agents va grignoter ses revenus publicitaires de cœur. Mais Google a un avantage que les autres entreprises ne peuvent pas égaler : il a accumulé des données personnelles depuis des dizaines d’années dans la recherche, les e-mails, les calendriers, les cartes et les documents. Il faut aussi tenir compte du coût de migration côté entreprise : Google Workspace est intégré dans des millions d’entreprises ; les e-mails, fichiers et workflows des employés fonctionnent sur l’infrastructure de Google. S’il existe une entreprise capable de créer des agents hautement personnalisés pour les consommateurs et les entreprises, c’est bien Google. La question est : peut-elle monétiser les services d’agents aussi efficacement que la monétisation du trafic de recherche ?
Merit Systems est mon “cheval noir” préféré. Elles construisent à la fois des infrastructures de découverte de services pour l’économie des agents ouverts (AgentCash, x402 scanning, MPP scanning) et développent des interfaces côté consommateurs (Poncho). La logique centrale est : celui qui contrôle les canaux de découverte de services des agents, et qui intervient dans la circulation des fonds, occupera la position qu’avait Google au début de l’Internet. C’est un pari ambitieux, mais si la guerre des transactions par agents ouverts l’emporte sur le mode fermé “sélectionné”, Merit deviendra la couche d’agrégation la plus avantageuse. Pour l’instant, elle reste encore en phase précoce, comme lorsque Google et l’écosystème fermé AOL rivalisaient à l’époque, avant la valorisation qui correspond aujourd’hui à 350 milliards de dollars.
Paiement
Celui qui contrôle la circulation des fonds captera une part de chaque transaction. Je suis particulièrement confiant dans cette couche, car sa taille grandira directement avec le volume des transactions.
Stripe et Tempo sont les plus avantagés dans le paiement natif machine. Stripe a déjà un écosystème développeur mature et un vaste réseau de marchands. Tempo, quant à lui, possède des paiements “streaming”, une finalité de transaction d’environ 500 millisecondes, des canaux de paiement streaming, un support natif des cartes bancaires et des stablecoins, la possibilité de payer le Gas en dollars (sans risque de fluctuation de token), et des fonctionnalités comme le paiement des serveurs pour les transactions. Tout est conçu pour les volumes massifs de transactions dans l’économie des machines. Si le MPP devient le canal de paiement natif machine par défaut, Stripe et Tempo prélèveront une commission sur chaque transaction initiée par des agents.
Circle augmentera en synchronisation avec l’expansion de l’économie des agents. Je suis convaincu que les stablecoins deviendront la couche de règlement de l’économie des machines, et Circle gagnera alors une part des revenus via les intérêts sur ses réserves, en partageant la valeur de chaque dollar dans les portefeuilles d’agents. USDC est le stablecoin le plus largement accepté dans les exchanges, les portefeuilles, les blockchains et les protocoles de paiement ; les nouveaux développeurs le choisiront en priorité, ce qui approfondit encore l’intégration de son écosystème et rend plus difficile l’entrée des concurrents.
Visa effectuera l’adaptation. Tu te souviens : Joe a rechargé de l’argent via Apple Pay avec une carte de crédit, et en coulisses, cela a été automatiquement converti en stablecoins, sans qu’il voie jamais le portefeuille ni doive s’inquiéter de la blockchain. C’est précisément la norme à venir. Les consommateurs continueront à utiliser les cartes bancaires qu’ils connaissent, tandis que le règlement de fond sera effectué par des stablecoins. À mesure que les canaux de paiement évoluent, Visa s’appuiera sur sa confiance de marque auprès des consommateurs et des commerçants pour consolider sa position.
Calcul et hébergement
La croissance du nombre d’agents signifie l’augmentation des besoins en inférence. Le développement improvisé de services plus nombreux implique une demande d’hébergement plus grande. Quel que soit le modèle, le protocole ou l’interface qui devient la norme, les fournisseurs de calcul bénéficieront. AWS et Cloudflare sont les deux entreprises les mieux placées dans ce domaine, pour des raisons similaires.
D’abord, elles soutiennent la majeure partie du trafic d’Internet. AWS occupe environ 30 % de la part d’infrastructures cloud dans 37 régions à travers le monde. Cloudflare fournit des services de sécurité et de performance pour plus de 20 % des sites web, ce qui signifie que les requêtes de tous ces sites transitent par leur réseau. Lorsque de nouvelles interfaces orientées agents explosent, les développeurs choisiront par défaut les plateformes de déploiement qu’ils connaissent le mieux.
Ensuite, elles construisent l’infrastructure de monétisation pour la prochaine génération d’Internet. À mesure que le modèle publicitaire décline et que le modèle d’accès payant émerge, les deux entreprises soutiennent nativement cette transition. Cloudflare a lancé des services de paiement par extraction web (paid scraping), permettant à n’importe quel site sur son réseau de facturer ses pages à travers x402 à des robots IA (Stack Overflow l’utilise déjà). Et AWS est membre fondateur du fonds x402, et a publié une architecture de référence open source pour x402 serverless. Tout service déployé sur ces deux grandes plateformes peut facilement activer la monétisation native par agents.
Authentification
Je suis pessimiste à propos d’entreprises comme Worldcoin : leur système repose sur des validations humaines à chaque interaction. Ce “futur extrémiste” suppose que les gens se soucieront de savoir si l’entité de l’échange en ligne est humaine ou un agent, mais nous y sommes déjà habitués. À mon avis, l’avenir le plus probable est le suivant : la majorité des critères de filtrage du trafic sur Internet seront les micro-paiements plutôt que les preuves d’identité humaine.
Le paiement d’accès sera plus utile que “prouver que tu es un humain”.
Le système d’identité est important seulement pour quelques interactions à haut risque ; dans la plupart des transactions par agents, (les micro) paiements eux-mêmes sont des preuves de confiance.
Conclusion
Quand Joe se réveille, il ne pense pas aux canaux de paiement ni aux protocoles d’identité des agents. Il regarde juste son téléphone : il sait que l’agent a terminé les transactions, planifié les réunions et trouvé un serveur moins cher. Tous les niveaux d’architecture technique discutés dans cet article sont parfaitement abstraits ; il n’a absolument rien à gérer.
Nous avançons encore vers ce futur. Les protocoles correspondants existent déjà, mais leur adoption est insuffisante ; le côté offre augmente mais reste mince ; le problème de découverte de services n’est pas encore résolu ; la couche d’identité est très fragmentée. La plupart des transactions actuelles ne sont que des tests de développeurs, pas des transactions réelles d’agents. Mais la vitesse à laquelle le puzzle de l’écosystème se complète est plus rapide que ce que montrent les indicateurs de données. Ceux qui doutent des infrastructures en phase précoce ne regardent que la courbe descendante ; moi, je réfléchis à ce que donnera cette image quand chacun aura un ou plusieurs agents réellement capables d’actions économiques.
Si tu n’as pas encore agi, il est temps de passer au modèle économique d’agents.