Les LLM ne peuvent pas juger de manière fiable l'état du monde réel, et l'Agent AI fait face à une grande vulnérabilité sur le plan de l'exécution. Ce qui nous manque, c'est l'Agent Oracle, qui est la pierre angulaire de tout l'écosystème des Agents, mais qui a été longtemps négligé. La capacité des LLM est essentiellement de générer du texte avec une probabilité optimale, et non un système pour inférer la vérité du monde. Ils ne vérifient pas la véracité des nouvelles, ne reconnaissent pas les liens de phishing, tout cela relève de la “vérification des faits” plutôt que de “la prévision linguistique”.
LLM : un point aveugle fatal : incapacité à vérifier la vérité du monde
Pourquoi LLM n'est-il pas suffisant ? Parce que la capacité de LLM est essentiellement de générer le texte le plus probable, et non pas d'inférer la vérité du monde. Cette distinction est cruciale, mais souvent négligée. Lorsque vous demandez à ChatGPT « Quel est le prix du Bitcoin aujourd'hui ? », la réponse donnée ne provient pas d'une requête en temps réel, mais est générée à partir des données d'entraînement et des règles statistiques comme la réponse « probablement correcte ». Si les données d'entraînement sont obsolètes ou contiennent des informations erronées, LLM n'hésitera pas à générer des réponses incorrectes, tout en agissant avec une grande confiance.
Cette caractéristique a peu d'impact dans les conversations quotidiennes, mais elle est mortelle lorsque l'Agent IA exécute des tâches réelles. Lorsque l'Agent doit ouvrir un compte, effectuer des transactions, accéder à des sites Web, soumettre des formulaires, il est exposé à une vulnérabilité extrêmement élevée. Il ne vérifie pas la véracité des nouvelles, ne reconnaît pas les liens de phishing, ne détermine pas si une API est compromise, ne comprend pas si une réglementation est réellement en vigueur, et ne peut pas saisir avec précision le véritable biais derrière les discours de Powell.
Un exemple concret : supposons que vous demandiez à un Agent IA de vous aider à acheter une nouvelle cryptomonnaie. L'Agent pourrait : (1) rechercher des informations sur cette cryptomonnaie, mais ne pas être en mesure de déterminer si les sources d'information sont fiables ; (2) trouver un site de trading apparemment légitime, mais ne pas être capable d'identifier s'il s'agit d'un site de phishing ; (3) exécuter la transaction, mais ne pas pouvoir vérifier si le contrat intelligent contient une porte dérobée ; (4) confirmer que la transaction a réussi, mais en réalité, les fonds ont été volés. Tout au long du processus, le LLM “fait son devoir”, mais le manque de capacité de vérification du monde réel signifie que chaque étape peut être erronée.
Tout cela appartient à la « vérification » et non à la « prédiction ». Par conséquent, le LLM ne peut jamais devenir la « source de vérité » d'un Agent. Peu importe à quel point GPT-5 ou GPT-6 devient puissant, cette limitation essentielle ne changera pas, car il s'agit d'un problème de niveau architecture, et non d'un problème de force ou de faiblesse des capacités.
Les cinq points aveugles des LLM dans le jugement réel
Vérification de la véracité des nouvelles : incapacité à distinguer les reportages authentiques des fausses nouvelles ou du contenu généré par l'IA
Capacité d'identification de phishing : Impossible de déterminer si le site, l'e-mail ou le lien est une fraude.
Détection de pollution API : impossible de vérifier si la source de données a été altérée ou si une attaque de l'homme du milieu a eu lieu.
Jugement de l'effectivité des réglementations : Il est impossible de confirmer si une certaine loi est réellement entrée en vigueur ou comment elle est appliquée.
Intention derrière le sens : incapacité à comprendre le véritable sens des discours des fonctionnaires et des annonces des entreprises.
Limites de l'Oracle Machine traditionnel : vérité des prix vs vérité des événements
Les oracles traditionnels ne peuvent pas résoudre ce problème. Chainlink, Band Protocol et d'autres oracles traditionnels excellent dans la vérité des prix : ETH/USD, BTC/BNB, indices, devises, TVL en chaîne, ce type de données structurées, quantifiables et observables. Ces données ont des sources de données claires (API des échanges), un format standardisé (numérique) et une méthode de validation objective (consensus multi-nœuds).
Mais la réalité auxquelles les agents IA sont confrontés est complètement différente : événements non structurés, conflits multisources, jugements sémantiques, changements en temps réel, frontières floues - c'est la vérité des événements, qui est un ordre de complexité supérieur à celle de la vérité des prix. Par exemple : “Un certain article de presse est-il vrai ?” nécessite de vérifier plusieurs sources, d'analyser le style linguistique, de vérifier l'authenticité des images, et de retracer l'origine de l'information ; “Un certain projet est-il fiable ?” nécessite d'évaluer le parcours de l'équipe, les rapports d'audit, les retours de la communauté, et les performances historiques ; “Un certain tweet sous-entend-il un avantage ?” nécessite de comprendre le contexte, d'analyser les émotions, et de juger les intentions de l'orateur.
La vérité des événements ≠ la vérité des prix, les mécanismes des deux sont totalement différents. La vérité des prix peut être obtenue par une moyenne pondérée des prix de plusieurs échanges, la source des données est claire et facile à vérifier. La vérité des événements implique la compréhension sémantique, l'analyse contextuelle, et la vérification croisée de multiples sources d'information, ce qui ne peut pas être géré par le mécanisme de vote des nœuds des oracles traditionnels. Les nœuds peuvent vérifier que “l'API d'un certain échange renvoie un prix BTC de 87 000 dollars”, mais ne peuvent pas vérifier “si une certaine nouvelle est fiable” ou “si un certain contrat intelligent est sécurisé”.
Tentative révolutionnaire de Sora : marché de validation des événements
Le marché de validation des événements proposé par Sora est actuellement la tentative la plus proche de la bonne direction. Le changement central de Sora est que : la vérité n'est plus générée par le vote des nœuds, mais plutôt par un Agent exécutant de véritables tâches de validation. Une requête passera par la collecte de données (TLS, Hash, IPFS), le filtrage des valeurs aberrantes (MAD), la validation sémantique LLM, l'agrégation par pondération de réputation multi-Agent, la mise à jour de la réputation et les sanctions en cas de défi.
L'insight clé de Sora est Earn = Reputation : les revenus proviennent de la réputation, et la réputation provient d'un travail réel à long terme, et non de la mise ou de l'auto-déclaration. Cette direction est très révolutionnaire, car elle transforme l'oracle de “cotation passive” en “validation active”. L'agent ne se contente pas de récupérer des données via l'API et de faire un rapport, mais doit réaliser un travail de validation réel : accéder à plusieurs sites Web, comparer différentes sources, analyser la véracité du contenu et fournir une note de confiance.
Cependant, Sora n'est toujours pas assez ouvert. Les experts en vérification des événements du monde réel sont extrêmement diversifiés, allant de la finance, des réglementations, de la santé, du multilinguisme, à l'audit de sécurité, à la détection de fraude, à la surveillance sur chaîne, et à l'expérience sectorielle. Aucun groupe unique ne peut construire un cluster d'agents couvrant tous ces domaines. C'est comme essayer de créer une entreprise contenant des experts de tous les domaines, ce qui est pratiquement impossible à réaliser dans la pratique. Le véritable savoir-faire est réparti entre des millions d'experts à travers le monde, et les plateformes fermées ne peuvent pas intégrer efficacement ces connaissances.
ERC8004 + x402 : marché de jeu de vérité ouvert
Nous avons besoin d'un « marché de jeu de vérité » ouvert et impliquant de multiples acteurs. Pourquoi ? Parce que la façon dont l'humanité obtient la vérité n'est pas de poser des questions à un expert, mais de consulter plusieurs sources, de poser des questions à plusieurs amis, d'écouter plusieurs KOL, puis d'extraire une compréhension stable des conflits. Le monde des agents IA doit également évoluer selon ce mécanisme.
La combinaison de l'ERC8004 et du x402 fournit un cadre technique. L'ERC8004 est responsable de l'établissement d'une couche de réputation programmable, enregistrant l'historique des performances de chaque Agent, le nombre d'appels, les cas de succès, les enregistrements de défis, les domaines d'expertise, la stabilité, etc., permettant à la “carrière vérifiable (verifiable career)” de déterminer naturellement l'éligibilité de l'Agent. Cela ressemble au système de CV et de lettres de recommandation de la société humaine, mais est entièrement transparent et infalsifiable.
x402 Responsable du niveau de paiement, grâce à cela, nous pouvons rassembler dynamiquement plusieurs Agents de haute réputation lors d'une vérification d'événement, leur permettant de valider en parallèle, de croiser les vérifications et d'agréger les résultats en fonction des contributions pondérées. Il ne s'agit pas de trouver un expert, mais de convoquer un comité - c'est cela le “comité de vérité” du monde des machines. Lorsque la vérification d'une actualité est nécessaire, le système peut convoquer 10 Agents spécialisés dans ce domaine, chacun exécutant des vérifications, fournissant des évaluations et des preuves, et finalement, en arrivant à une conclusion grâce à la pondération de la réputation.
L'avantage de ce mécanisme réside dans sa capacité d'auto-évolution. Les agents performants accumulent de la réputation, obtenant plus d'opportunités de travail et des revenus plus élevés ; les agents moins performants perdent leur réputation et sont progressivement éliminés par le marché. Il n'est pas nécessaire d'avoir un mécanisme d'audit ou d'admission centralisé, le marché sélectionne naturellement les validateurs les plus fiables. Cette ouverture permet également à quiconque de déployer des agents professionnels sur le marché, tant qu'ils peuvent fournir une validation de haute qualité, ils peuvent gagner des revenus.
Un marché de la vérité ouvert, multi-parties, avec pondération de la réputation, des incitations basées sur des défis et capable d'évoluer automatiquement, pourrait être la véritable forme de l'oracle machine du futur. Cela ne sert pas seulement aux agents IA, mais pourrait également remodeler la manière dont l'humanité obtient des informations.
La couche de vérité sémantique sociale de l'intuition
En même temps, Intuition construit un autre niveau : la vérité sémantique sociale. Toutes les vérités ne peuvent pas être dérivées par la vérification des événements, comme “un projet est-il fiable”, “la qualité de la gouvernance est-elle bonne”, “la communauté aime-t-elle un certain produit”, “un développeur est-il digne de confiance”, “un point de vue est-il reconnu par le mainstream”. Ce ne sont pas des Oui/Non, mais un consensus social, qui est mieux exprimé par le triplet TRUST (Atome — Prédicat — Objet), et qui cumule la force du consensus par le soutien ou l'opposition à travers le stake.
Il s'applique aux faits à long terme tels que la réputation, les préférences, les niveaux de risque, les étiquettes, etc. Ce mécanisme de consensus social complète les domaines que la validation des événements ne peut pas couvrir. La validation des événements convient pour répondre à la question “est-ce qu'un événement a eu lieu”, tandis que le consensus social est adapté pour répondre à “que signifie cet événement” ou “comment un sujet est-il évalué”.
Cependant, l'expérience produit actuelle d'Intuition est vraiment mauvaise. Par exemple, pour établir “V est le fondateur d'Ethereum”, tous les mots associés doivent avoir une identité dans le système, ce qui rend le processus très maladroit. Le point de douleur est clair, mais leur solution n'est pas encore assez bonne. Ce problème d'expérience utilisateur pourrait limiter son adoption, mais la direction du concept de base est correcte.
Architecture en trois couches de la réalité future
Ainsi, la structure de la vérité future présentera deux couches complémentaires : la vérité des événements (Agent Oracle) responsable du monde en temps réel, et la vérité sémantique (TRUST) responsable du consensus à long terme, les deux formant ensemble la base de vérité de l'IA. La pile de réalité (Reality Stack) sera clairement divisée en trois couches :
Reality Stack trois niveaux d'architecture
Niveau de vérité de l'événement : Sora / ERC8004 + x402, responsable de la validation des événements en temps réel et du jugement de l'état du monde réel.
Niveau de vérité sémantique : TRUST / Intuition, responsable du consensus social, de l'évaluation de la réputation et des faits à long terme
Niveau de règlement : L1/L2 blockchain, fournissant des enregistrements immuables et un mécanisme d'incitation économique.
Cette structure pourrait très bien devenir la véritable base de l'AI × Web3. Sans l'Agent Oracle, l'AI Agent ne peut pas vérifier la véracité, juger la provenance, éviter la fraude, empêcher la pollution des données, assumer des actions à haut risque, et faire des vérifications croisées comme un humain. Sans cela, l'économie des agents ne peut pas exister ; mais avec cela, nous pouvons pour la première fois établir une couche de réalité vérifiable pour l'AI.
Le futur de l'Oracle Machine ne sera pas un réseau de nœuds, mais sera composé d'innombrables agents professionnels : ils accumulent leur réputation grâce à leurs revenus, participent à la vérification grâce à cette réputation, obtiennent de nouveaux travaux et défis grâce à la vérification, collaborent automatiquement, se divisent automatiquement le travail et s'auto-évoluent, pour finalement s'étendre à tous les domaines de connaissance. Ce sera un véritable marché de vérité dans une société de machines.
La blockchain nous a offert un livre de comptes de confiance, tandis que l'ère des Agents IA nécessite une réalité fiable, des événements fiables, une sémantique fiable, des jugements fiables et des exécutions fiables. Agent Oracle = la base réelle de l'IA. L'avenir appartient à ceux qui peuvent aider les machines à comprendre le monde réel.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
La plus grande faille de l'économie AI ! Sans Oracle Machine, il est impossible de juger du vrai ou du faux, risquant l'effondrement.
Les LLM ne peuvent pas juger de manière fiable l'état du monde réel, et l'Agent AI fait face à une grande vulnérabilité sur le plan de l'exécution. Ce qui nous manque, c'est l'Agent Oracle, qui est la pierre angulaire de tout l'écosystème des Agents, mais qui a été longtemps négligé. La capacité des LLM est essentiellement de générer du texte avec une probabilité optimale, et non un système pour inférer la vérité du monde. Ils ne vérifient pas la véracité des nouvelles, ne reconnaissent pas les liens de phishing, tout cela relève de la “vérification des faits” plutôt que de “la prévision linguistique”.
LLM : un point aveugle fatal : incapacité à vérifier la vérité du monde
Pourquoi LLM n'est-il pas suffisant ? Parce que la capacité de LLM est essentiellement de générer le texte le plus probable, et non pas d'inférer la vérité du monde. Cette distinction est cruciale, mais souvent négligée. Lorsque vous demandez à ChatGPT « Quel est le prix du Bitcoin aujourd'hui ? », la réponse donnée ne provient pas d'une requête en temps réel, mais est générée à partir des données d'entraînement et des règles statistiques comme la réponse « probablement correcte ». Si les données d'entraînement sont obsolètes ou contiennent des informations erronées, LLM n'hésitera pas à générer des réponses incorrectes, tout en agissant avec une grande confiance.
Cette caractéristique a peu d'impact dans les conversations quotidiennes, mais elle est mortelle lorsque l'Agent IA exécute des tâches réelles. Lorsque l'Agent doit ouvrir un compte, effectuer des transactions, accéder à des sites Web, soumettre des formulaires, il est exposé à une vulnérabilité extrêmement élevée. Il ne vérifie pas la véracité des nouvelles, ne reconnaît pas les liens de phishing, ne détermine pas si une API est compromise, ne comprend pas si une réglementation est réellement en vigueur, et ne peut pas saisir avec précision le véritable biais derrière les discours de Powell.
Un exemple concret : supposons que vous demandiez à un Agent IA de vous aider à acheter une nouvelle cryptomonnaie. L'Agent pourrait : (1) rechercher des informations sur cette cryptomonnaie, mais ne pas être en mesure de déterminer si les sources d'information sont fiables ; (2) trouver un site de trading apparemment légitime, mais ne pas être capable d'identifier s'il s'agit d'un site de phishing ; (3) exécuter la transaction, mais ne pas pouvoir vérifier si le contrat intelligent contient une porte dérobée ; (4) confirmer que la transaction a réussi, mais en réalité, les fonds ont été volés. Tout au long du processus, le LLM “fait son devoir”, mais le manque de capacité de vérification du monde réel signifie que chaque étape peut être erronée.
Tout cela appartient à la « vérification » et non à la « prédiction ». Par conséquent, le LLM ne peut jamais devenir la « source de vérité » d'un Agent. Peu importe à quel point GPT-5 ou GPT-6 devient puissant, cette limitation essentielle ne changera pas, car il s'agit d'un problème de niveau architecture, et non d'un problème de force ou de faiblesse des capacités.
Les cinq points aveugles des LLM dans le jugement réel
Vérification de la véracité des nouvelles : incapacité à distinguer les reportages authentiques des fausses nouvelles ou du contenu généré par l'IA
Capacité d'identification de phishing : Impossible de déterminer si le site, l'e-mail ou le lien est une fraude.
Détection de pollution API : impossible de vérifier si la source de données a été altérée ou si une attaque de l'homme du milieu a eu lieu.
Jugement de l'effectivité des réglementations : Il est impossible de confirmer si une certaine loi est réellement entrée en vigueur ou comment elle est appliquée.
Intention derrière le sens : incapacité à comprendre le véritable sens des discours des fonctionnaires et des annonces des entreprises.
Limites de l'Oracle Machine traditionnel : vérité des prix vs vérité des événements
Les oracles traditionnels ne peuvent pas résoudre ce problème. Chainlink, Band Protocol et d'autres oracles traditionnels excellent dans la vérité des prix : ETH/USD, BTC/BNB, indices, devises, TVL en chaîne, ce type de données structurées, quantifiables et observables. Ces données ont des sources de données claires (API des échanges), un format standardisé (numérique) et une méthode de validation objective (consensus multi-nœuds).
Mais la réalité auxquelles les agents IA sont confrontés est complètement différente : événements non structurés, conflits multisources, jugements sémantiques, changements en temps réel, frontières floues - c'est la vérité des événements, qui est un ordre de complexité supérieur à celle de la vérité des prix. Par exemple : “Un certain article de presse est-il vrai ?” nécessite de vérifier plusieurs sources, d'analyser le style linguistique, de vérifier l'authenticité des images, et de retracer l'origine de l'information ; “Un certain projet est-il fiable ?” nécessite d'évaluer le parcours de l'équipe, les rapports d'audit, les retours de la communauté, et les performances historiques ; “Un certain tweet sous-entend-il un avantage ?” nécessite de comprendre le contexte, d'analyser les émotions, et de juger les intentions de l'orateur.
La vérité des événements ≠ la vérité des prix, les mécanismes des deux sont totalement différents. La vérité des prix peut être obtenue par une moyenne pondérée des prix de plusieurs échanges, la source des données est claire et facile à vérifier. La vérité des événements implique la compréhension sémantique, l'analyse contextuelle, et la vérification croisée de multiples sources d'information, ce qui ne peut pas être géré par le mécanisme de vote des nœuds des oracles traditionnels. Les nœuds peuvent vérifier que “l'API d'un certain échange renvoie un prix BTC de 87 000 dollars”, mais ne peuvent pas vérifier “si une certaine nouvelle est fiable” ou “si un certain contrat intelligent est sécurisé”.
Tentative révolutionnaire de Sora : marché de validation des événements
Le marché de validation des événements proposé par Sora est actuellement la tentative la plus proche de la bonne direction. Le changement central de Sora est que : la vérité n'est plus générée par le vote des nœuds, mais plutôt par un Agent exécutant de véritables tâches de validation. Une requête passera par la collecte de données (TLS, Hash, IPFS), le filtrage des valeurs aberrantes (MAD), la validation sémantique LLM, l'agrégation par pondération de réputation multi-Agent, la mise à jour de la réputation et les sanctions en cas de défi.
L'insight clé de Sora est Earn = Reputation : les revenus proviennent de la réputation, et la réputation provient d'un travail réel à long terme, et non de la mise ou de l'auto-déclaration. Cette direction est très révolutionnaire, car elle transforme l'oracle de “cotation passive” en “validation active”. L'agent ne se contente pas de récupérer des données via l'API et de faire un rapport, mais doit réaliser un travail de validation réel : accéder à plusieurs sites Web, comparer différentes sources, analyser la véracité du contenu et fournir une note de confiance.
Cependant, Sora n'est toujours pas assez ouvert. Les experts en vérification des événements du monde réel sont extrêmement diversifiés, allant de la finance, des réglementations, de la santé, du multilinguisme, à l'audit de sécurité, à la détection de fraude, à la surveillance sur chaîne, et à l'expérience sectorielle. Aucun groupe unique ne peut construire un cluster d'agents couvrant tous ces domaines. C'est comme essayer de créer une entreprise contenant des experts de tous les domaines, ce qui est pratiquement impossible à réaliser dans la pratique. Le véritable savoir-faire est réparti entre des millions d'experts à travers le monde, et les plateformes fermées ne peuvent pas intégrer efficacement ces connaissances.
ERC8004 + x402 : marché de jeu de vérité ouvert
Nous avons besoin d'un « marché de jeu de vérité » ouvert et impliquant de multiples acteurs. Pourquoi ? Parce que la façon dont l'humanité obtient la vérité n'est pas de poser des questions à un expert, mais de consulter plusieurs sources, de poser des questions à plusieurs amis, d'écouter plusieurs KOL, puis d'extraire une compréhension stable des conflits. Le monde des agents IA doit également évoluer selon ce mécanisme.
La combinaison de l'ERC8004 et du x402 fournit un cadre technique. L'ERC8004 est responsable de l'établissement d'une couche de réputation programmable, enregistrant l'historique des performances de chaque Agent, le nombre d'appels, les cas de succès, les enregistrements de défis, les domaines d'expertise, la stabilité, etc., permettant à la “carrière vérifiable (verifiable career)” de déterminer naturellement l'éligibilité de l'Agent. Cela ressemble au système de CV et de lettres de recommandation de la société humaine, mais est entièrement transparent et infalsifiable.
x402 Responsable du niveau de paiement, grâce à cela, nous pouvons rassembler dynamiquement plusieurs Agents de haute réputation lors d'une vérification d'événement, leur permettant de valider en parallèle, de croiser les vérifications et d'agréger les résultats en fonction des contributions pondérées. Il ne s'agit pas de trouver un expert, mais de convoquer un comité - c'est cela le “comité de vérité” du monde des machines. Lorsque la vérification d'une actualité est nécessaire, le système peut convoquer 10 Agents spécialisés dans ce domaine, chacun exécutant des vérifications, fournissant des évaluations et des preuves, et finalement, en arrivant à une conclusion grâce à la pondération de la réputation.
L'avantage de ce mécanisme réside dans sa capacité d'auto-évolution. Les agents performants accumulent de la réputation, obtenant plus d'opportunités de travail et des revenus plus élevés ; les agents moins performants perdent leur réputation et sont progressivement éliminés par le marché. Il n'est pas nécessaire d'avoir un mécanisme d'audit ou d'admission centralisé, le marché sélectionne naturellement les validateurs les plus fiables. Cette ouverture permet également à quiconque de déployer des agents professionnels sur le marché, tant qu'ils peuvent fournir une validation de haute qualité, ils peuvent gagner des revenus.
Un marché de la vérité ouvert, multi-parties, avec pondération de la réputation, des incitations basées sur des défis et capable d'évoluer automatiquement, pourrait être la véritable forme de l'oracle machine du futur. Cela ne sert pas seulement aux agents IA, mais pourrait également remodeler la manière dont l'humanité obtient des informations.
La couche de vérité sémantique sociale de l'intuition
En même temps, Intuition construit un autre niveau : la vérité sémantique sociale. Toutes les vérités ne peuvent pas être dérivées par la vérification des événements, comme “un projet est-il fiable”, “la qualité de la gouvernance est-elle bonne”, “la communauté aime-t-elle un certain produit”, “un développeur est-il digne de confiance”, “un point de vue est-il reconnu par le mainstream”. Ce ne sont pas des Oui/Non, mais un consensus social, qui est mieux exprimé par le triplet TRUST (Atome — Prédicat — Objet), et qui cumule la force du consensus par le soutien ou l'opposition à travers le stake.
Il s'applique aux faits à long terme tels que la réputation, les préférences, les niveaux de risque, les étiquettes, etc. Ce mécanisme de consensus social complète les domaines que la validation des événements ne peut pas couvrir. La validation des événements convient pour répondre à la question “est-ce qu'un événement a eu lieu”, tandis que le consensus social est adapté pour répondre à “que signifie cet événement” ou “comment un sujet est-il évalué”.
Cependant, l'expérience produit actuelle d'Intuition est vraiment mauvaise. Par exemple, pour établir “V est le fondateur d'Ethereum”, tous les mots associés doivent avoir une identité dans le système, ce qui rend le processus très maladroit. Le point de douleur est clair, mais leur solution n'est pas encore assez bonne. Ce problème d'expérience utilisateur pourrait limiter son adoption, mais la direction du concept de base est correcte.
Architecture en trois couches de la réalité future
Ainsi, la structure de la vérité future présentera deux couches complémentaires : la vérité des événements (Agent Oracle) responsable du monde en temps réel, et la vérité sémantique (TRUST) responsable du consensus à long terme, les deux formant ensemble la base de vérité de l'IA. La pile de réalité (Reality Stack) sera clairement divisée en trois couches :
Reality Stack trois niveaux d'architecture
Niveau de vérité de l'événement : Sora / ERC8004 + x402, responsable de la validation des événements en temps réel et du jugement de l'état du monde réel.
Niveau de vérité sémantique : TRUST / Intuition, responsable du consensus social, de l'évaluation de la réputation et des faits à long terme
Niveau de règlement : L1/L2 blockchain, fournissant des enregistrements immuables et un mécanisme d'incitation économique.
Cette structure pourrait très bien devenir la véritable base de l'AI × Web3. Sans l'Agent Oracle, l'AI Agent ne peut pas vérifier la véracité, juger la provenance, éviter la fraude, empêcher la pollution des données, assumer des actions à haut risque, et faire des vérifications croisées comme un humain. Sans cela, l'économie des agents ne peut pas exister ; mais avec cela, nous pouvons pour la première fois établir une couche de réalité vérifiable pour l'AI.
Le futur de l'Oracle Machine ne sera pas un réseau de nœuds, mais sera composé d'innombrables agents professionnels : ils accumulent leur réputation grâce à leurs revenus, participent à la vérification grâce à cette réputation, obtiennent de nouveaux travaux et défis grâce à la vérification, collaborent automatiquement, se divisent automatiquement le travail et s'auto-évoluent, pour finalement s'étendre à tous les domaines de connaissance. Ce sera un véritable marché de vérité dans une société de machines.
La blockchain nous a offert un livre de comptes de confiance, tandis que l'ère des Agents IA nécessite une réalité fiable, des événements fiables, une sémantique fiable, des jugements fiables et des exécutions fiables. Agent Oracle = la base réelle de l'IA. L'avenir appartient à ceux qui peuvent aider les machines à comprendre le monde réel.