O LLM não consegue avaliar com fiabilidade o estado do mundo real, e os agentes de IA enfrentam uma elevada vulnerabilidade em termos de execução. O que nos falta é a Máquina Oracle (預言機), que é a pedra angular de todo o ecossistema de agentes, mas que tem sido há muito ignorada. A essência da capacidade do LLM é gerar o texto com a probabilidade ótima, e não um sistema que infere a verdade do mundo. Ele não verifica a veracidade das notícias, nem identifica enlaces de phishing, que pertencem à “verificação de fatos” e não à “previsão de linguagem”.
Ponto cego fatal do LLM: incapacidade de verificar a verdade do mundo
Por que o LLM não é suficiente? Porque a capacidade do LLM é essencialmente gerar o texto com a probabilidade mais alta, e não um sistema que infera a verdade do mundo. Essa distinção é crucial, mas muitas vezes é ignorada. Quando você pergunta ao ChatGPT “Qual é o preço do Bitcoin hoje”, a resposta que ele dá não vem de uma consulta em tempo real, mas é gerada como a resposta “mais provavelmente correta” com base nos dados de treinamento e nas regras estatísticas. Se os dados de treinamento estiverem desatualizados ou contiverem informações incorretas, o LLM não hesitará em gerar respostas erradas, e se comportará com extrema confiança.
Essa característica tem impacto limitado em conversas cotidianas, mas é fatal quando um Agente de IA executa tarefas práticas. Quando o Agente precisa abrir uma conta, negociar, acessar sites ou enviar formulários, ele está exposto a uma vulnerabilidade extremamente alta. Ele não verifica a veracidade das notícias, não identifica links de phishing, não determina se uma API está comprometida, não entende se uma regulamentação está realmente em vigor e não consegue avaliar com precisão a verdadeira inclinação por trás das falas de Powell.
Um exemplo concreto: suponha que você peça ao Agente de IA para comprar uma nova moeda. O agente pode: (1) pesquisar informações sobre a moeda, mas não consegue determinar se a fonte das informações é confiável; (2) encontrar um site de negociação que parece legítimo, mas não consegue identificar se é um site de phishing; (3) executar a transação, mas não consegue verificar se o contrato inteligente contém uma porta dos fundos; (4) confirmar que a transação foi bem-sucedida, mas, na realidade, os fundos já foram roubados. Durante todo o processo, o LLM está “fazendo o dever de casa”, mas a falta de capacidade de verificação do mundo real faz com que cada passo possa estar errado.
Estes pertencem à “verificação (verification)”, e não à “previsão (prediction)”. Portanto, o LLM nunca poderá ser a “fonte de verdade” de um Agente. Não importa quão poderoso se torne o GPT-5 ou o GPT-6, essa limitação essencial não mudará, pois é uma questão de nível de arquitetura, e não uma questão de força de capacidade.
LLM nas cinco grandes armadilhas do julgamento na realidade
Verificação de veracidade das notícias: Incapaz de distinguir entre reportagens reais e notícias falsas ou conteúdos gerados por IA
Capacidade de Identificação de Phishing: incapaz de determinar se o site, e-mail ou enlace é uma fraude
Detecção de Poluição da API: Não é possível verificar se a fonte de dados foi adulterada ou se houve um ataque de intermediário.
Avaliação da eficácia da legislação: não é possível confirmar se uma determinada lei está realmente em vigor ou como será aplicada.
Intenção por trás do significado: incapacidade de compreender o verdadeiro significado do discurso dos oficiais e dos anúncios da empresa.
Limitações da Máquina Oracle Tradicional: Verdade de Preço vs Verdade de Evento
As Máquinas Oracle tradicionais não conseguem resolver este problema. Chainlink, Band Protocol e outras Máquinas Oracle tradicionais são especializadas em verdades de preços: ETH/USD, BTC/BNB, índices, câmbio, TVL em cadeia, este tipo de dados estruturados, quantificáveis e observáveis. Esses dados têm fontes de dados claras (API de exchanges), formatos padronizados (números) e métodos de verificação objetivos (consenso de múltiplos nós).
Mas a realidade que o Agente de IA enfrenta é completamente diferente: eventos não estruturados, conflitos de múltiplas fontes, julgamento semântico, mudanças em tempo real, fronteiras difusas — esta é a verdade dos eventos, que é uma ordem de magnitude mais complexa do que a verdade dos preços. Por exemplo: “a veracidade de uma notícia” requer a verificação de múltiplas fontes, análise do estilo de linguagem, verificação da autenticidade de imagens e rastreamento da origem das informações; “a confiabilidade de um projeto” requer a avaliação do histórico da equipe, relatórios de auditoria, feedback da comunidade e desempenho histórico; “um tweet sugere um bom presságio” requer compreensão do contexto, análise de emoções e julgamento da intenção do falante.
A verdade dos eventos ≠ A verdade dos preços, os mecanismos de ambos são completamente diferentes. A verdade dos preços pode ser obtida através da média ponderada dos preços de várias exchanges, com fontes de dados claras e fáceis de verificar. A verdade dos eventos envolve compreensão semântica, análise de contexto e verificação cruzada de múltiplas fontes de informação, que são questões que os mecanismos de votação de nós dos oráculos tradicionais não conseguem lidar. Os nós podem verificar “o preço do BTC retornado pela API de uma determinada exchange é 87.000 dólares”, mas não conseguem verificar “se uma determinada notícia é confiável” ou “se um determinado contrato inteligente é seguro”.
A tentativa revolucionária de Sora: mercado de validação de eventos
O mercado de verificação de eventos proposto pela Sora é a tentativa mais próxima da direção correta atualmente. A principal mudança da Sora é: a verdade não é mais gerada por votos de nós, mas sim por Agentes que executam tarefas de verificação reais. Uma consulta passará por coleta de dados (TLS, Hash, IPFS), filtragem de valores anômalos (MAD), verificação semântica LLM, agregação de credibilidade ponderada por múltiplos Agentes, atualização de credibilidade e punição por desafio.
A chave de entendimento de Sora é que Earn = Reputação: a receita vem da reputação, e a reputação vem de trabalho real a longo prazo, e não de stake ou autoafirmação. Esta direção é muito revolucionária, pois transforma a Máquina Oracle de “cotação passiva” para “validação ativa”. O Agente não simplesmente captura dados da API e relata, mas deve realizar o trabalho de validação real: acessar vários sites, comparar diferentes fontes, analisar a veracidade do conteúdo e fornecer uma pontuação de confiança.
No entanto, Sora ainda não é suficientemente aberto. Os especialistas em validação de eventos do mundo real são extremamente diversos, abrangendo finanças, regulamentação, saúde, multilíngue, auditoria de segurança, detecção de fraudes, monitoramento em cadeia e experiência na indústria; nenhuma única equipe pode construir um agrupamento de Agentes que cubra todos esses domínios. É como tentar criar uma empresa que inclua especialistas de todos os campos, o que é impossível na prática. O verdadeiro conhecimento especializado está disperso entre milhões de especialistas ao redor do mundo, e plataformas fechadas não conseguem integrar eficazmente esse conhecimento.
ERC8004 + x402: Mercado de Aposta em Verdade Aberto
Precisamos de um “mercado de jogo da verdade” aberto e com a participação de múltiplos agentes. Por quê? Porque a maneira como os humanos obtêm a verdade não é perguntando a um especialista, mas consultando várias fontes, perguntando a vários amigos, ouvindo vários KOLs e extraindo uma compreensão estável a partir dos conflitos. O mundo dos Agentes de IA também deve evoluir ao longo deste mecanismo.
A combinação de ERC8004 + x402 fornece uma estrutura técnica. O ERC8004 é responsável por estabelecer uma camada de reputação programável, registrando o desempenho histórico de cada Agente, número de chamadas, casos de sucesso, registros de desafios, áreas de especialização, estabilidade, entre outros, permitindo que a “carreira verificável” decida naturalmente a elegibilidade de participação do Agente. Isso é semelhante ao sistema de currículos e cartas de recomendação da sociedade humana, mas completamente transparente e inalterável.
x402 Camada de pagamento, através da qual podemos convocar dinamicamente vários Agentes de alta reputação em uma única verificação de evento, permitindo que eles validem em paralelo, realizem verificações cruzadas e agreguem os resultados com base na contribuição ponderada. Não se trata de encontrar um especialista, mas de convocar um comitê - esta é a “comissão de verdade” do mundo das máquinas. Quando é necessário validar uma notícia, o sistema pode convocar 10 Agentes especializados na área, que realizam a verificação, fornecem pontuações e evidências, e, finalmente, chegam a uma conclusão através da ponderação da reputação.
A vantagem desse mecanismo está na sua capacidade de auto-evolução. Agentes que se destacam acumulam reputação, obtendo mais oportunidades de trabalho e uma renda maior; agentes que se saem mal perdem reputação e são gradualmente eliminados do mercado. Não há necessidade de um sistema de auditoria ou de acesso centralizado, o mercado filtra naturalmente os validadores mais confiáveis. Essa abertura também permite que qualquer pessoa implemente agentes profissionais no mercado, desde que consiga fornecer validações de alta qualidade, podendo assim gerar renda.
Um mercado de verdade aberto, multi-agente, com ponderação de reputação, incentivos por desafios e capacidade de evolução automática, pode ser a verdadeira forma de uma Máquina Oracle no futuro. Isso não apenas serve aos Agentes de IA, mas também pode remodelar a forma como a humanidade obtém informações.
Camada de verdade semântica social da Intuição
Neste momento, a Intuition está a construir uma outra camada: Verdade Semântica Social. Nem toda verdade pode ser derivada através da verificação de eventos, como “um projeto é confiável?”, “a qualidade da governança é boa?”, “a comunidade gosta de um certo produto?”, “um desenvolvedor é confiável?”, “um ponto de vista é reconhecido pela maioria?”. Estas não são respostas Sim/Não, mas sim consenso social, que é adequado para ser expresso através do triplo de TRUST (Átomo — Predicado — Objeto) e acumular a intensidade do consenso através do apoio ou oposição de stake.
É aplicável a fatos de longo prazo como reputação, preferências, nível de risco, rótulos, etc. Este mecanismo de consenso social complementa as áreas que a verificação de eventos não consegue cobrir. A verificação de eventos é adequada para responder à pergunta “Isso aconteceu?”, enquanto o consenso social é adequado para responder “O que isso significa?” ou “Como um determinado sujeito é avaliado?”.
No entanto, a experiência do produto da Intuition atualmente é realmente muito ruim, por exemplo, para estabelecer “V como o fundador do Ethereum”, todas as palavras relacionadas devem ter uma identidade no sistema, o processo é muito complicado. O ponto de dor é claro, mas a solução deles ainda não é boa o suficiente. Esse tipo de problema de experiência do usuário pode limitar sua adoção, mas a direção do conceito central está correta.
Estrutura de Pilha de Três Camadas do Futuro
Assim, a estrutura da verdade futura apresentará duas camadas complementares: a verdade dos eventos (Agente Oracle) responsável pelo mundo em tempo real, e a verdade semântica (TRUST) responsável pelo consenso a longo prazo, ambas juntas constituem a base da verdade da IA. A pilha da realidade (Reality Stack) será claramente dividida em três camadas:
Reality Stack três camadas
Camada de Verdade dos Eventos: Sora / ERC8004 + x402, responsável pela verificação imediata de eventos e pelo julgamento do estado do mundo real.
Camada da Verdade Semântica: CONFIANÇA / Intuição, responsável pelo consenso social, avaliação de reputação e fatos a longo prazo.
Camada de Liquidação: L1/L2 blockchain, que fornece registros imutáveis e mecanismos de incentivo econômico
Esta estrutura pode muito bem tornar-se a verdadeira base do AI × Web3. Sem a Máquina Oracle, o Agente de IA não consegue verificar a veracidade, determinar a origem, evitar fraudes, prevenir a contaminação de dados, assumir ações de alto risco e realizar uma verificação cruzada como um humano. Sem ela, a economia dos Agentes não pode existir; mas com ela, pela primeira vez, conseguimos estabelecer uma camada de realidade verificável para a IA.
O futuro da Máquina Oracle não será uma rede de nós, mas sim composta por inúmeros Agentes profissionais: eles acumulam reputação através de receitas, participam da verificação através da reputação, obtêm novos trabalhos e desafios através da verificação, colaboram automaticamente, dividem o trabalho automaticamente e evoluem por conta própria, expandindo-se, por fim, para todos os domínios do conhecimento. Esse será um verdadeiro mercado de verdades em uma sociedade de máquinas.
A blockchain nos deu um livro-razão confiável, enquanto a era dos Agentes de IA precisa de uma realidade confiável, eventos confiáveis, semântica confiável, julgamentos confiáveis e execuções confiáveis. Agente Oracle = a base da realidade da IA. O futuro pertence àqueles que podem ajudar as máquinas a entender o mundo real.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
A maior vulnerabilidade da economia de IA! Sem Máquina Oracle, não é possível determinar a veracidade, enfrentando risco de colapso.
O LLM não consegue avaliar com fiabilidade o estado do mundo real, e os agentes de IA enfrentam uma elevada vulnerabilidade em termos de execução. O que nos falta é a Máquina Oracle (預言機), que é a pedra angular de todo o ecossistema de agentes, mas que tem sido há muito ignorada. A essência da capacidade do LLM é gerar o texto com a probabilidade ótima, e não um sistema que infere a verdade do mundo. Ele não verifica a veracidade das notícias, nem identifica enlaces de phishing, que pertencem à “verificação de fatos” e não à “previsão de linguagem”.
Ponto cego fatal do LLM: incapacidade de verificar a verdade do mundo
Por que o LLM não é suficiente? Porque a capacidade do LLM é essencialmente gerar o texto com a probabilidade mais alta, e não um sistema que infera a verdade do mundo. Essa distinção é crucial, mas muitas vezes é ignorada. Quando você pergunta ao ChatGPT “Qual é o preço do Bitcoin hoje”, a resposta que ele dá não vem de uma consulta em tempo real, mas é gerada como a resposta “mais provavelmente correta” com base nos dados de treinamento e nas regras estatísticas. Se os dados de treinamento estiverem desatualizados ou contiverem informações incorretas, o LLM não hesitará em gerar respostas erradas, e se comportará com extrema confiança.
Essa característica tem impacto limitado em conversas cotidianas, mas é fatal quando um Agente de IA executa tarefas práticas. Quando o Agente precisa abrir uma conta, negociar, acessar sites ou enviar formulários, ele está exposto a uma vulnerabilidade extremamente alta. Ele não verifica a veracidade das notícias, não identifica links de phishing, não determina se uma API está comprometida, não entende se uma regulamentação está realmente em vigor e não consegue avaliar com precisão a verdadeira inclinação por trás das falas de Powell.
Um exemplo concreto: suponha que você peça ao Agente de IA para comprar uma nova moeda. O agente pode: (1) pesquisar informações sobre a moeda, mas não consegue determinar se a fonte das informações é confiável; (2) encontrar um site de negociação que parece legítimo, mas não consegue identificar se é um site de phishing; (3) executar a transação, mas não consegue verificar se o contrato inteligente contém uma porta dos fundos; (4) confirmar que a transação foi bem-sucedida, mas, na realidade, os fundos já foram roubados. Durante todo o processo, o LLM está “fazendo o dever de casa”, mas a falta de capacidade de verificação do mundo real faz com que cada passo possa estar errado.
Estes pertencem à “verificação (verification)”, e não à “previsão (prediction)”. Portanto, o LLM nunca poderá ser a “fonte de verdade” de um Agente. Não importa quão poderoso se torne o GPT-5 ou o GPT-6, essa limitação essencial não mudará, pois é uma questão de nível de arquitetura, e não uma questão de força de capacidade.
LLM nas cinco grandes armadilhas do julgamento na realidade
Verificação de veracidade das notícias: Incapaz de distinguir entre reportagens reais e notícias falsas ou conteúdos gerados por IA
Capacidade de Identificação de Phishing: incapaz de determinar se o site, e-mail ou enlace é uma fraude
Detecção de Poluição da API: Não é possível verificar se a fonte de dados foi adulterada ou se houve um ataque de intermediário.
Avaliação da eficácia da legislação: não é possível confirmar se uma determinada lei está realmente em vigor ou como será aplicada.
Intenção por trás do significado: incapacidade de compreender o verdadeiro significado do discurso dos oficiais e dos anúncios da empresa.
Limitações da Máquina Oracle Tradicional: Verdade de Preço vs Verdade de Evento
As Máquinas Oracle tradicionais não conseguem resolver este problema. Chainlink, Band Protocol e outras Máquinas Oracle tradicionais são especializadas em verdades de preços: ETH/USD, BTC/BNB, índices, câmbio, TVL em cadeia, este tipo de dados estruturados, quantificáveis e observáveis. Esses dados têm fontes de dados claras (API de exchanges), formatos padronizados (números) e métodos de verificação objetivos (consenso de múltiplos nós).
Mas a realidade que o Agente de IA enfrenta é completamente diferente: eventos não estruturados, conflitos de múltiplas fontes, julgamento semântico, mudanças em tempo real, fronteiras difusas — esta é a verdade dos eventos, que é uma ordem de magnitude mais complexa do que a verdade dos preços. Por exemplo: “a veracidade de uma notícia” requer a verificação de múltiplas fontes, análise do estilo de linguagem, verificação da autenticidade de imagens e rastreamento da origem das informações; “a confiabilidade de um projeto” requer a avaliação do histórico da equipe, relatórios de auditoria, feedback da comunidade e desempenho histórico; “um tweet sugere um bom presságio” requer compreensão do contexto, análise de emoções e julgamento da intenção do falante.
A verdade dos eventos ≠ A verdade dos preços, os mecanismos de ambos são completamente diferentes. A verdade dos preços pode ser obtida através da média ponderada dos preços de várias exchanges, com fontes de dados claras e fáceis de verificar. A verdade dos eventos envolve compreensão semântica, análise de contexto e verificação cruzada de múltiplas fontes de informação, que são questões que os mecanismos de votação de nós dos oráculos tradicionais não conseguem lidar. Os nós podem verificar “o preço do BTC retornado pela API de uma determinada exchange é 87.000 dólares”, mas não conseguem verificar “se uma determinada notícia é confiável” ou “se um determinado contrato inteligente é seguro”.
A tentativa revolucionária de Sora: mercado de validação de eventos
O mercado de verificação de eventos proposto pela Sora é a tentativa mais próxima da direção correta atualmente. A principal mudança da Sora é: a verdade não é mais gerada por votos de nós, mas sim por Agentes que executam tarefas de verificação reais. Uma consulta passará por coleta de dados (TLS, Hash, IPFS), filtragem de valores anômalos (MAD), verificação semântica LLM, agregação de credibilidade ponderada por múltiplos Agentes, atualização de credibilidade e punição por desafio.
A chave de entendimento de Sora é que Earn = Reputação: a receita vem da reputação, e a reputação vem de trabalho real a longo prazo, e não de stake ou autoafirmação. Esta direção é muito revolucionária, pois transforma a Máquina Oracle de “cotação passiva” para “validação ativa”. O Agente não simplesmente captura dados da API e relata, mas deve realizar o trabalho de validação real: acessar vários sites, comparar diferentes fontes, analisar a veracidade do conteúdo e fornecer uma pontuação de confiança.
No entanto, Sora ainda não é suficientemente aberto. Os especialistas em validação de eventos do mundo real são extremamente diversos, abrangendo finanças, regulamentação, saúde, multilíngue, auditoria de segurança, detecção de fraudes, monitoramento em cadeia e experiência na indústria; nenhuma única equipe pode construir um agrupamento de Agentes que cubra todos esses domínios. É como tentar criar uma empresa que inclua especialistas de todos os campos, o que é impossível na prática. O verdadeiro conhecimento especializado está disperso entre milhões de especialistas ao redor do mundo, e plataformas fechadas não conseguem integrar eficazmente esse conhecimento.
ERC8004 + x402: Mercado de Aposta em Verdade Aberto
Precisamos de um “mercado de jogo da verdade” aberto e com a participação de múltiplos agentes. Por quê? Porque a maneira como os humanos obtêm a verdade não é perguntando a um especialista, mas consultando várias fontes, perguntando a vários amigos, ouvindo vários KOLs e extraindo uma compreensão estável a partir dos conflitos. O mundo dos Agentes de IA também deve evoluir ao longo deste mecanismo.
A combinação de ERC8004 + x402 fornece uma estrutura técnica. O ERC8004 é responsável por estabelecer uma camada de reputação programável, registrando o desempenho histórico de cada Agente, número de chamadas, casos de sucesso, registros de desafios, áreas de especialização, estabilidade, entre outros, permitindo que a “carreira verificável” decida naturalmente a elegibilidade de participação do Agente. Isso é semelhante ao sistema de currículos e cartas de recomendação da sociedade humana, mas completamente transparente e inalterável.
x402 Camada de pagamento, através da qual podemos convocar dinamicamente vários Agentes de alta reputação em uma única verificação de evento, permitindo que eles validem em paralelo, realizem verificações cruzadas e agreguem os resultados com base na contribuição ponderada. Não se trata de encontrar um especialista, mas de convocar um comitê - esta é a “comissão de verdade” do mundo das máquinas. Quando é necessário validar uma notícia, o sistema pode convocar 10 Agentes especializados na área, que realizam a verificação, fornecem pontuações e evidências, e, finalmente, chegam a uma conclusão através da ponderação da reputação.
A vantagem desse mecanismo está na sua capacidade de auto-evolução. Agentes que se destacam acumulam reputação, obtendo mais oportunidades de trabalho e uma renda maior; agentes que se saem mal perdem reputação e são gradualmente eliminados do mercado. Não há necessidade de um sistema de auditoria ou de acesso centralizado, o mercado filtra naturalmente os validadores mais confiáveis. Essa abertura também permite que qualquer pessoa implemente agentes profissionais no mercado, desde que consiga fornecer validações de alta qualidade, podendo assim gerar renda.
Um mercado de verdade aberto, multi-agente, com ponderação de reputação, incentivos por desafios e capacidade de evolução automática, pode ser a verdadeira forma de uma Máquina Oracle no futuro. Isso não apenas serve aos Agentes de IA, mas também pode remodelar a forma como a humanidade obtém informações.
Camada de verdade semântica social da Intuição
Neste momento, a Intuition está a construir uma outra camada: Verdade Semântica Social. Nem toda verdade pode ser derivada através da verificação de eventos, como “um projeto é confiável?”, “a qualidade da governança é boa?”, “a comunidade gosta de um certo produto?”, “um desenvolvedor é confiável?”, “um ponto de vista é reconhecido pela maioria?”. Estas não são respostas Sim/Não, mas sim consenso social, que é adequado para ser expresso através do triplo de TRUST (Átomo — Predicado — Objeto) e acumular a intensidade do consenso através do apoio ou oposição de stake.
É aplicável a fatos de longo prazo como reputação, preferências, nível de risco, rótulos, etc. Este mecanismo de consenso social complementa as áreas que a verificação de eventos não consegue cobrir. A verificação de eventos é adequada para responder à pergunta “Isso aconteceu?”, enquanto o consenso social é adequado para responder “O que isso significa?” ou “Como um determinado sujeito é avaliado?”.
No entanto, a experiência do produto da Intuition atualmente é realmente muito ruim, por exemplo, para estabelecer “V como o fundador do Ethereum”, todas as palavras relacionadas devem ter uma identidade no sistema, o processo é muito complicado. O ponto de dor é claro, mas a solução deles ainda não é boa o suficiente. Esse tipo de problema de experiência do usuário pode limitar sua adoção, mas a direção do conceito central está correta.
Estrutura de Pilha de Três Camadas do Futuro
Assim, a estrutura da verdade futura apresentará duas camadas complementares: a verdade dos eventos (Agente Oracle) responsável pelo mundo em tempo real, e a verdade semântica (TRUST) responsável pelo consenso a longo prazo, ambas juntas constituem a base da verdade da IA. A pilha da realidade (Reality Stack) será claramente dividida em três camadas:
Reality Stack três camadas
Camada de Verdade dos Eventos: Sora / ERC8004 + x402, responsável pela verificação imediata de eventos e pelo julgamento do estado do mundo real.
Camada da Verdade Semântica: CONFIANÇA / Intuição, responsável pelo consenso social, avaliação de reputação e fatos a longo prazo.
Camada de Liquidação: L1/L2 blockchain, que fornece registros imutáveis e mecanismos de incentivo econômico
Esta estrutura pode muito bem tornar-se a verdadeira base do AI × Web3. Sem a Máquina Oracle, o Agente de IA não consegue verificar a veracidade, determinar a origem, evitar fraudes, prevenir a contaminação de dados, assumir ações de alto risco e realizar uma verificação cruzada como um humano. Sem ela, a economia dos Agentes não pode existir; mas com ela, pela primeira vez, conseguimos estabelecer uma camada de realidade verificável para a IA.
O futuro da Máquina Oracle não será uma rede de nós, mas sim composta por inúmeros Agentes profissionais: eles acumulam reputação através de receitas, participam da verificação através da reputação, obtêm novos trabalhos e desafios através da verificação, colaboram automaticamente, dividem o trabalho automaticamente e evoluem por conta própria, expandindo-se, por fim, para todos os domínios do conhecimento. Esse será um verdadeiro mercado de verdades em uma sociedade de máquinas.
A blockchain nos deu um livro-razão confiável, enquanto a era dos Agentes de IA precisa de uma realidade confiável, eventos confiáveis, semântica confiável, julgamentos confiáveis e execuções confiáveis. Agente Oracle = a base da realidade da IA. O futuro pertence àqueles que podem ajudar as máquinas a entender o mundo real.