As 6 Soluções Emergentes de Verificação de IA em 2025

intermediário4/17/2025, 2:03:08 AM
Este artigo explora soluções de ponta no campo da verificabilidade de IA em 2025, com uma análise detalhada de seis projetos principais: EigenLayer, Hyperbolic, Mira, Atoma, Fortytwo e Lagrange. Essas iniciativas adotam abordagens técnicas diversas, incluindo Prova de Amostragem (PoSP), Ambientes de Execução Confiáveis (TEEs) e Provas de Conhecimento Zero (ZKPs), para enfrentar o desafio da confiabilidade de saída de IA. Cada solução oferece vantagens únicas e é adequada para casos de uso específicos, avançando coletivamente o desenvolvimento da infraestrutura de IA descentralizada.

Encaminhar o Título Original 'AI and Verifiability'

À medida que os sistemas de IA se integram cada vez mais aos ecossistemas de blockchain, garantir a verificabilidade das saídas da IA torna-se uma pedra angular para fomentar a confiança, transparência e responsabilidade. Isso é especialmente crítico para as aplicações de finanças descentralizadas (DeFi) e de prova de identidade pessoal, onde a precisão e confiabilidade podem influenciar diretamente os resultados financeiros, as decisões de governança e a identidade do usuário.

O Caso para IA Verificável em Sistemas Descentralizados

Observabilidade de IA

Garante que os processos de tomada de decisão sejam transparentes e compreensíveis. As partes interessadas obtêm insights sobre como as conclusões são derivadas - vital quando as decisões influenciam transações on-chain ou governança em grande escala.

Rastreabilidade da Fonte

Acompanha os dados, parâmetros e arquiteturas de modelo usados para gerar previsões de IA. Ao estabelecer a procedência, os usuários sabem de onde vieram os dados de treinamento e quais modelos foram utilizados, aumentando a confiança e reduzindo a probabilidade de desinformação.

Verificação de Saída

Confirma que as saídas finais de IA são precisas e inalteradas. Em um contexto descentralizado, isso geralmente envolve mecanismos de prova (por exemplo, provas de conhecimento zero, consenso de amostragem) para garantir que os cálculos ou inferências não tenham sido adulterados fora da cadeia.

Desafios na Verificabilidade da IA On-Chain

Embora as blockchains sejam excelentes em fornecer registros imutáveis e confiança distribuída, os cálculos de IA on-chain podem ser proibitivamente caros. Por exemplo, a multiplicação de matrizes para 1000×1000 inteiros pode consumir bilhões de gás — além do limite de gás por bloco atual do Ethereum (Zheng et al., 2021). Consequentemente, a maioria dos projetos de IA depende de cálculos off-chain com verificação on-chain.

No entanto, abordagens off-chain introduzem novos desafios:

Potencial Fraude: Sem uma verificação robusta, atores maliciosos podem enviar dados incorretos ou manipulados.

Pontos Fracos Centralizados: Dependendo de oráculos off-chain ou servidores privados pode minar o ethos descentralizado, levando à censura ou pontos únicos de falha.

Portanto, as soluções emergentes visam manter alto desempenho ao incorporar verificação criptográfica ou baseada em amostragem, equilibrando eficiência e descentralização.

EigenLayer

EigenLayer é um protocolo de restaking que permite aos validadores do Ethereum "reinvestir" seu ETH para garantir serviços descentralizados adicionais, conhecidos como Serviços Ativamente Validados (AVS). Em vez de precisar de um novo conjunto de validadores para cada tarefa especializada (por exemplo, validação de IA, operações entre cadeias), EigenLayer reutiliza a rede robusta e descentralizada de validadores do Ethereum.

EigenLayer melhora a segurança ao permitir que novos Serviços Ativamente Validados (AVS) acessem o conjunto de validadores existente do Ethereum. Este conjunto de validadores já é grande, bem capitalizado e geograficamente distribuído, oferecendo garantias criptoeconômicas robustas sem a necessidade de inicializar uma nova rede do zero.

Ao habilitar o restaking, EigenLayer reduz significativamente os custos operacionais. Os projetos não precisam mais criar e manter seus próprios ecossistemas de validadores, o que reduz tanto os custos de infraestrutura quanto as barreiras para o lançamento de novos serviços descentralizados on-chain.

Além disso, o sistema oferece alta flexibilidade. AVS pode personalizar sua própria lógica de consenso e validação, enquanto ainda herda a segurança da camada base do Ethereum, tornando a EigenLayer uma base ideal para aplicativos descentralizados modulares, seguros e escaláveis.

Prova de Amostragem Hiperbólica (PoSP) da Gate.io

Hyperbolic Labs introduz o Proof of Sampling (PoSP), uma alternativa eficiente e escalável aos tradicionais zkML ou provas de fraude otimistas para validação de IA. Este novo protocolo de verificação baseado em amostragem garante que nossos usuários possam confiar nos resultados de seus modelos sendo treinados e executados em nossa rede decentralizada de GPU. Este protocolo, conhecido como Proof of Sampling (PoSP), é o novo padrão ouro para verificação em IA.

Desenvolvido pela equipe Hyperbolic em colaboração com pesquisadores da UC Berkeley e da Universidade de Columbia, o PoSP utiliza a teoria dos jogos para garantir sistemas descentralizados. Ele valida uma amostra estratégica de resultados e implementa um processo de arbitragem para nós desonestos incentivarem 100% de comportamento honesto em toda a rede.

A Prova de Provas Espontâneas (PoSP) oferece várias vantagens-chave: ela permite uma verificação eficiente adicionando menos de 1% de sobrecarga computacional, permitindo que os nós mantenham velocidades de operação próximas às nativas. Sua segurança robusta garante que os participantes permaneçam honestos, pois verificações aleatórias tornam a fraude muito arriscada para valer a pena. Através de incentivos de teoria dos jogos, a PoSP cria um Equilíbrio de Nash de estratégia pura onde o comportamento honesto é sempre a escolha racional. Por fim, a PoSP é altamente escalável para serviços de IA, capaz de suportar cargas de trabalho de IA descentralizadas em grande escala, garantindo que os processos de cálculo e inferência de alto desempenho permaneçam verificáveis e confiáveis.

Auditorias Aleatórias: Um conjunto rotativo de validadores (através do EigenLayer) amostra regularmente e verifica as computações de IA. Essa verificação contínua evita trapaças sistemáticas.

Incentivos de Equilíbrio de Nash: Comportamento malicioso é economicamente irracional para validadores — saídas desonestas ou inconsistentes levam a penalidades passíveis de corte.

Alta Capacidade: A sobrecarga de desempenho inferior do PoSP o torna adequado para casos de uso que exigem inferências de IA rápidas e frequentes.

Ao contrário de outras soluções de IA descentralizadas, quando você executa inferência na rede descentralizada da Hyperbolic, você pode ter certeza de que está recebendo um resultado válido.

Ao integrar o PoSP ao EigenLayer, os serviços de IA descentralizados podem alcançar um framework seguro e minimizado em confiança que pode lidar com um número crescente de solicitações de inferência sem sacrificar a descentralização ou a eficiência de custos.

Validação Aleatória: Os validadores são selecionados aleatoriamente para verificar as saídas, garantindo resultados imparciais.

Suporte AVS escalável: PoSP reduz as demandas computacionais, permitindo que a EigenLayer proteja serviços em grande escala de forma eficiente.

Dissuasão de Fraudes: Penas rigorosas tornam a desonestidade pouco lucrativa, enquanto o comportamento honesto permanece a estratégia ótima.

“O protocolo EigenLayer combinado com nosso protocolo de Prova de Amostragem transforma fundamentalmente a forma como garantimos serviços descentralizados. Agora oferecemos uma infraestrutura escalável, confiável e resistente a fraudes a uma fração do custo.” - Jasper Zhang, CEO da Hyperbolic


Leia o artigo completo sobre PoSP aqui

Mira

A Mira Network tem como objetivo resolver um desafio fundamental em IA, que é a tendência de modelos de linguagem grandes (LLMs) gerarem informações incorretas. Projetada para reduzir alucinações e maximizar a precisão de saída sem supervisão humana, a Mira utiliza uma rede descentralizada de nós independentes para verificar confiavelmente as saídas de IA em paralelo.

Existem três etapas na arquitetura da Mira

Binarização

O processo de dividir as saídas em 'reivindicações' mais simples.

Verificação Distribuída

As reivindicações acima são verificadas por uma rede de nós verificadores que executam modelos especializados para verificar as reivindicações. A verificação é feita em um formato de pergunta de múltipla escolha. As reivindicações para verificação são divididas aleatoriamente entre os verificadores, o que torna difícil a colusão.

Prova de Verificação

Um mecanismo de consenso híbrido que combina Prova de Trabalho (PoW) e Prova de Participação (PoS) é utilizado. Cada verificador precisa apostar para participar da verificação. Esta abordagem garante que os verificadores estejam realmente realizando inferência, em vez de apenas atestar. A aposta de um verificador será reduzida se for constatado que sua saída está constantemente desviando do consenso.

Uma vez que o consenso tenha sido alcançado pela rede sobre uma saída, um certificado criptográfico é gerado e escrito no blockchain, criando um registro imutável de fatos verificados.


Origem:Whitepaper da Mira Network

A privacidade é um aspecto-chave do design da Mira. Dado que as reivindicações são fragmentadas aleatoriamente, não é possível para um único operador de nó reconstruir a saída original. Além disso, as respostas de verificação de verificadores independentes são mantidas privadas antes do consenso, evitando vazamento de informações.

Mira está buscando verificar conteúdos cada vez mais complexos, que incluem código, dados estruturados e conteúdo multimídia. No futuro, Mira também reconstruirá conteúdos inválidos quando detectados, alcançando precisão e velocidade na saída de IA. Eventualmente, a Rede Mira será capaz de acumular fatos economicamente seguros, criando um banco de dados para verificação de fatos.

À medida que o uso da rede cresce - geração de taxas mais altas - melhores prêmios de verificação - atraem mais operadores de nós - precisão, custo e latência aprimorados na verificação das respostas

Atoma

Atoma é uma rede de execução de IA descentralizada, privada e verificável, ativa na mainnet Sui. A arquitetura central é composta por três elementos: (a) camada de cálculo e; (b) camada de verificação e; (c) camada de privacidade.

Camada de Cálculo

Uma rede global de nós de execução que processa solicitações de inferência. Um grande número de nós está disponível ao trabalhar com vários data centers e dispositivos de borda como dispositivos digitais individuais.

Com o Atoma, os pesos do modelo estão disponíveis localmente nos nós, aumentando a velocidade da inferência quando uma solicitação é recebida. Além disso, as solicitações recebidas são encaminhadas para o nó mais adequado, combinando a tarefa com o desempenho e custo correspondentes.

Atoma foca em otimizar a eficiência da execução de inferências através de algumas funcionalidades, incluindo FlashAttention e Paged Attention, ambas contribuindo para a redução da sobrecarga computacional.

Camada de Verificação

A integridade da computação é verificada por meio de consenso de amostragem. Este é um processo onde nós são selecionados aleatoriamente para executar a inferência e gerar um hash criptográfico da saída. Se todos os hashes gerados pelo conjunto selecionado de nós forem iguais, a saída da inferência é verificada. Caso haja uma discrepância entre os hashes gerados, a rede buscará o nó desonesto, que será penalizado através do corte de sua participação.

As chances de um atacante mal-intencionado ser capaz de controlar metade ou mais da potência total da GPU da rede para manipular o sistema são muito baixas, e tornam-se ainda mais difíceis à medida que a rede de nós se expande. O número de nós selecionados para amostragem é flexível, para tarefas com maior participação, um conjunto maior de nós pode ser escolhido.

Camada de Privacidade

A Atoma enfatiza a importância de manter os dados do usuário seguros e privados, executando cálculos em um Ambiente de Execução Confiável (TEE). Os dados inseridos pelos usuários são criptografados e só são descriptografados no TEE. Isso impede que outras partes na blockchain visualizem os dados do usuário. Depois que a inferência for executada, a saída é criptografada antes de ser devolvida aos usuários.

Apesar de ser uma solução segura, vale ressaltar que ela vem com um compromisso em termos de sobrecarga de computação mais alta, o que pode resultar em taxas mais altas para os usuários.

Rede Aizel

Similar ao Atoma Network acima, a Aizel Network opta por uma abordagem baseada em TEE. A diferença aqui é que a Aizel integrou a Computação Multi-Partes (MPC) em seu fluxo de trabalho, onde as tarefas de inferência são roteadas para diferentes TEEs. Isso tem como objetivo descentralizar a rede, garantindo que a inferência ainda seja possível mesmo quando um TEE é hackeado ou está inativo.

Quarenta e dois

Fortytwo campeões um modelo de “inferência de enxame” construído em torno de Modelos Pequenos e Especializados (SLMs). Em vez de depender de uma IA monolítica massiva, a rede orquestra múltiplos modelos operados por colaboradores, cada um ajustado para tarefas ou domínios específicos. Esses modelos trabalham em paralelo—verificando, refinando e cruzando as saídas uns dos outros—para fornecer inferências mais precisas e confiáveis.

Esta estrutura descentralizada enfrenta problemas que modelos únicos e grandes frequentemente enfrentam, como gargalos no treinamento, requisitos de hardware caros e pontos únicos de falha. Ao distribuir a inteligência em numerosos modelos e contribuintes menores, o Fortytwo garante escalabilidade e tolerância a falhas.

1. Modelos Especializados Pequenos (SLMs)

Inicialização Orientada por Intenção

Antes de iniciar qualquer tarefa, os colaboradores especificam o objetivo, o orçamento e as restrições. Essa abordagem alinha cada SLM com a missão geral, seja para resumir texto, analisar código ou qualquer outra inferência especializada.

Especializações Definidas pelo Contribuidor

Os operadores de nó individuais trazem seus próprios modelos ajustados à rede. Eles mantêm controle total sobre pesos, vieses e dados proprietários, garantindo privacidade para cada proprietário de modelo. Esses modelos especializados podem se concentrar em áreas como análise de sentimentos, análise de texto jurídico ou até mesmo geração de código específico de domínio.

Privacidade de Pesos & Biases

Um aspecto crítico do Fortytwo é que os contribuintes não precisam compartilhar os detalhes internos do modelo. Apenas os resultados da inferência são compartilhados com a rede. Este design preserva a propriedade intelectual de cada proprietário do modelo e ajuda a mitigar os riscos associados à exposição de dados sensíveis.

2. Inferência de Enxame & Avaliação de Pares

Colaboração Multi-SLM

As tarefas são divididas entre 7-8 (ou mais) SLMs especializados, cada um fornecendo uma perspectiva de domínio única. Ao dividir tarefas maiores em subproblemas menores, a rede aproveita melhor as forças de cada modelo.

Flat Mixture-of-Experts (MoE)

Em vez de empilhar sub-especialistas em várias camadas, a Fortytwo utiliza uma abordagem MoE 'plana', onde cada modelo processa os dados de forma independente. Este design pode ser particularmente eficiente porque evita a complexidade do gating hierárquico, permitindo que os especialistas se concentrem exclusivamente em suas respectivas sub tarefas.

Detecção Coletiva de Erros

A avaliação entre pares desempenha um papel fundamental na manutenção da precisão da inferência. Quando os modelos discordam, a rede sinaliza as discrepâncias para uma análise mais aprofundada. Esse processo de verificação cruzada é crucial para detectar erros precocemente e garantir uma saída de alta qualidade.

3. Baixa Latência & Computação Distribuída

Hardware de nível de consumidor

Fortytwo é otimizado para dispositivos como Apple Silicon e GPUs RTX, reduzindo as barreiras de custo e ampliando a base de potenciais operadores de nós. Esta abordagem democratiza a IA ao permitir que mais pessoas - e não apenas grandes centros de dados - participem.

Clusters de Implantação

Muitos operadores de nós escolhem plataformas de nuvem (por exemplo, AWS) ou clusters auto-hospedados para minimizar a latência. Clusters bem coordenados tornam-se particularmente valiosos em cenários sensíveis ao tempo, onde até pequenos atrasos podem impactar significativamente a experiência do usuário.

4. Comunidade de Operadores de Nós

Participação Crescente

Milhares de participantes manifestaram interesse em executar nós de inferência, criando uma rede diversificada e distribuída. Essa expansão traz mais recursos computacionais online, aumentando ainda mais a capacidade e a resiliência.

Contribuições de Modelo Semelhante à Wikipedia

Similar ao modo como os editores da Wikipedia colaboram em artigos, cada operador de nó pode aprimorar ou ajustar modelos especializados e compartilhar técnicas de inferência aprimoradas. Essa manutenção e refinamento coletivos promovem a inovação contínua e elevam a inteligência geral da rede.

Lagrange

Lagrange está na vanguarda do uso da tecnologia Zero-Knowledge (ZK) para trazer verificabilidade à IA. Seu lema - "O futuro da IA é ZK, e o futuro da humanidade é Lagrange" - destaca a crença de que, à medida que a IA evolui para a superinteligência, devemos garantir transparência e confiança na forma como esses modelos funcionam.

DeepProve: Alto Desempenho zkML

  • Prova do Modelo Correto: DeepProve confirma criptograficamente que o modelo de IA correto foi usado para uma inferência específica, não deixando margem para manipulação ou falsificação.
  • Prova de Saída Correta: Também garante que a saída esteja alinhada com o que o modelo genuinamente produziria, impedindo que atores maliciosos injetem resultados falsos.
  • Melhorias de desempenho: Apresenta geração de prova 158 vezes mais rápida e verificação 671 vezes mais rápida do que muitas soluções zkML existentes, tornando viável a implantação em larga escala.

Ao remover interações de IA "caixa preta", Lagrange garante que os usuários não precisam confiar cegamente na IA. Em ambientes descentralizados, onde a minimização da confiança é fundamental, a certeza criptográfica sobre a integridade do modelo e a correção da saída se torna essencial.

Além disso, Inference Labs atua como o braço focado em aplicativos da Lagrange, fazendo a ponte entre pesquisa e implementações práticas. Enquanto Lagrange se concentra no design criptográfico e de circuitos principais, Inference Labs garante que essas inovações estejam prontas para produção.

Integrações do Mundo Real

Incorpora o zkML em pipelines de machine learning existentes, focando em setores como DeFi, jogos, saúde e procedência da cadeia de suprimentos.

Parceiros com líderes da indústria para testar as novas características de Lagrange sob restrições do mundo real (por exemplo, grande quantidade de parâmetros, requisitos estritos de latência).

EZKL

EZKL é um sistema de código aberto para criar IA verificável e análises usando provas de conhecimento zero (ZKPs). Permite aos desenvolvedores provar que os modelos de IA foram executados corretamente sem revelar dados sensíveis ou detalhes do modelo proprietário. Inspirado em sistemas como o Face ID da Apple, o EZKL estende a segurança do modelo incomparável a qualquer modelo em qualquer dispositivo—sem depender de hardware especializado como TEEs.

Infraestrutura de Prova de Conhecimento Zero

EZKL automatiza todo o ciclo de vida da ZKP - desde a compilação do modelo até a geração e verificação da prova. Os usuários fornecem modelos de IA no formato ONNX, que o EZKL compila em circuitos ZK-friendly usando uma versão otimizada do sistema de prova Halo2. O sistema então gera provas criptográficas da execução correta do modelo que podem ser verificadas em qualquer dispositivo.

Esse processo criptográfico permite confiança descentralizada em aplicações de IA de alto risco, como tomada de decisões financeiras, autenticação biométrica e validação de inferência em tempo real.

SNARKs colaborativos (Cosnarks)

A EZKL recentemente introduziu SNARKs Colaborativos (cosnarks), permitindo que duas partes - como um proprietário de modelo e um proprietário de dados - gerem em conjunto uma prova ZK sem que nenhuma das partes revele seus ativos confidenciais. Ao contrário dos sistemas de prova MPC delegados, os cosnarks eliminam suposições adicionais de confiança limitando a computação apenas às partes envolvidas.

Essa avanço permite casos de uso como pontuação de crédito privada, estratégias de negociação confidenciais e verificação de identidade de conhecimento zero. A implementação alavanca a biblioteca MPC otimizada 2PC da Renegade e é integrada diretamente ao Lilith, camada de orquestração de nuvem EZKL.

Suporte ao Modelo e Flexibilidade

EZKL suporta uma ampla gama de arquiteturas de AI/ML, incluindo CNNs, RNNs, transformers no estilo GPT, árvores de decisão e modelos de difusão estáveis. Qualquer modelo compatível com o padrão ONNX pode ser convertido em um circuito ZK.

Ao abstrair a lógica do modelo em circuitos matemáticos, o EZKL permite inferência preservadora de privacidade em setores como finanças, saúde e identidade. A lógica baseada em árvores, mecanismos de atenção e operações de matriz em grande escala são todos suportados dentro do framework suportado pelo Halo2.

Experiência do Desenvolvedor

EZKL prioriza a acessibilidade e a abstração da complexidade. Os desenvolvedores não precisam de conhecimentos criptográficos anteriores, experiência em design de circuitos ou habilidades avançadas de DevOps. O sistema oferece ligações em CLI, Python, JavaScript e Rust, tornando fácil incorporar fluxos de trabalho ZK em pipelines de ML existentes.

Geração automática de restrições, comandos de prova simplificados e integração perfeita com ferramentas de orquestração permitem que os desenvolvedores se concentrem exclusivamente na lógica da aplicação.

Protocolo ORA

ORA é um protocolo de oráculo agnóstico de cadeia que une IA e blockchain, permitindo que os desenvolvedores construam aplicativos totalmente descentralizados e sem confiança alimentados por aprendizado de máquina verificável. Através de sua infraestrutura, ORA traz inferência de IA, geração de conteúdo e cálculos complexos diretamente na cadeia, eliminando a dependência de APIs offchain ou cálculos centralizados. Sua inovação central reside na combinação da execução de IA com provas criptográficas, criando pipelines de IA programáveis com verificabilidade incorporada.

O protocolo permite que qualquer desenvolvedor construa aplicações onde as saídas de IA - seja uma resposta de modelo de linguagem, uma imagem gerada ou uma declaração verificada - possam ser incorporadas em contratos inteligentes com garantias de auditabilidade e correção.

Onchain AI Oracle (OAO)

O Onchain AI Oracle (OAO) é o produto principal da ORA. Ele permite que contratos inteligentes solicitem, recebam e ajam com base nos resultados das inferências de IA realizadas offchain, mas verificadas e liquidadas onchain. Os desenvolvedores podem chamar um trabalho de inferência de IA por meio da rede opML da ORA. O resultado é retornado por meio de uma função de retorno de chamada no contrato do usuário, tornando as aplicações onchain nativas de IA e totalmente autônomas.

OAO suporta vários modelos grandes—como LLaMA3, Stable Diffusion, OpenLM Chat/Score—em execução por meio de infraestrutura verificável. Os desenvolvedores podem integrar o OAO em qualquer cadeia compatível com EVM, e contratos inteligentes pré-construídos como Prompt e SimplePrompt permitem a prototipagem rápida com otimização de gás em mente.

opML e Fluxo de Verificabilidade

O sistema de aprendizado de máquina otimista (opML) da ORA alimenta sua camada de verificabilidade. Quando um trabalho de inferência é iniciado, o resultado é postado on-chain com um período de desafio. Durante esse tempo, os validadores de opML podem verificar o resultado e, se estiver incorreto, enviar uma prova de fraude. O resultado correto substitui o desafiado. Isso garante que as saídas de IA incorporadas em contratos inteligentes sejam verificáveis, resistentes à censura e economicamente seguras.

Esta abordagem otimista equilibra desempenho e descentralização. Ao contrário do zkML, que pode exigir uma computação pesada antecipada, o opML torna economicamente irracional que o comportamento desonesto tenha sucesso, especialmente à medida que a rede de validadores cresce.

Integração do Desenvolvedor

Os desenvolvedores interagem com a OAO através de uma interface modular bem documentada. Para integrar a IA a um contrato inteligente, um desenvolvedor herda AIOracleCallbackReceiver e implementa a função aiOracleCallback() para receber resultados. Eles podem então chamar o oráculo para iniciar a inferência usando IDs de modelo, dados de entrada e um endereço de callback.

Atualmente, quatro modelos estão implantados no Arbitrum, e a integração pode ser tão simples quanto usar os modelos Prompt da ORA. A infraestrutura também suporta casos de uso mais avançados por meio de sua orquestração de computação com Lilith, possibilitando inferências mais rápidas e cargas de trabalho de alto rendimento.

Oferta do Modelo Inicial (IMO)

ORA criou o framework de Oferta do Modelo Inicial (IMO) para descentralizar a propriedade, receita e governança do modelo de IA. Os IMOs tokenizam modelos de IA através de uma estrutura de duplo token:

  • ERC-7007: Ancora saídas geradas por IA verificáveis (por exemplo, imagens, previsões) diretamente onchain.
  • ERC-7641: Distribui receita do uso do modelo para detentores de tokens, criando sistemas de IA governados pela comunidade alinhados com incentivos.

Ao habilitar a governança e a monetização baseadas em tokens, os IMOs financiam o desenvolvimento de código aberto, garantindo que a infraestrutura de IA permaneça resistente à censura, globalmente acessível e coletivamente de propriedade.

Conclusão

À medida que o vertical de IA continua a crescer, a necessidade de saídas de IA verificáveis torna-se cada vez mais crítica. Evidente a partir do acima, existem abordagens diversas para garantir a ausência de confiança em soluções de IA descentralizadas, incluindo ambientes de execução confiáveis (TEEs), Prova de Amostragem (PoSP), Aprendizado de Máquina com Conhecimento Zero (ZKML) e Aprendizado de Máquina Otimista (OPML).

As abordagens diferem em diversos aspectos, nomeadamente o custo, o tempo decorrido e o nível de garantias de segurança. É provável que todas as soluções mencionadas acima sejam utilizadas de alguma forma, dependendo dos casos de uso específicos.

Aviso legal:

  1. Este artigo é reproduzido a partir de [GateHiperbólico - e/acc]. Encaminhar o Título Original 'AI and Verifiability'. Todos os direitos autorais pertencem ao autor original [Hiperbólico - e/acc]. Se houver objeções a este reenvio, entre em contato com o Gate Learnequipe e eles lidarão com isso prontamente.
  2. Aviso de responsabilidade: As opiniões expressas neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.
  3. A equipe do Gate Learn faz traduções do artigo para outros idiomas. Copiar, distribuir ou plagiar os artigos traduzidos é proibido, a menos que seja mencionado.

As 6 Soluções Emergentes de Verificação de IA em 2025

intermediário4/17/2025, 2:03:08 AM
Este artigo explora soluções de ponta no campo da verificabilidade de IA em 2025, com uma análise detalhada de seis projetos principais: EigenLayer, Hyperbolic, Mira, Atoma, Fortytwo e Lagrange. Essas iniciativas adotam abordagens técnicas diversas, incluindo Prova de Amostragem (PoSP), Ambientes de Execução Confiáveis (TEEs) e Provas de Conhecimento Zero (ZKPs), para enfrentar o desafio da confiabilidade de saída de IA. Cada solução oferece vantagens únicas e é adequada para casos de uso específicos, avançando coletivamente o desenvolvimento da infraestrutura de IA descentralizada.

Encaminhar o Título Original 'AI and Verifiability'

À medida que os sistemas de IA se integram cada vez mais aos ecossistemas de blockchain, garantir a verificabilidade das saídas da IA torna-se uma pedra angular para fomentar a confiança, transparência e responsabilidade. Isso é especialmente crítico para as aplicações de finanças descentralizadas (DeFi) e de prova de identidade pessoal, onde a precisão e confiabilidade podem influenciar diretamente os resultados financeiros, as decisões de governança e a identidade do usuário.

O Caso para IA Verificável em Sistemas Descentralizados

Observabilidade de IA

Garante que os processos de tomada de decisão sejam transparentes e compreensíveis. As partes interessadas obtêm insights sobre como as conclusões são derivadas - vital quando as decisões influenciam transações on-chain ou governança em grande escala.

Rastreabilidade da Fonte

Acompanha os dados, parâmetros e arquiteturas de modelo usados para gerar previsões de IA. Ao estabelecer a procedência, os usuários sabem de onde vieram os dados de treinamento e quais modelos foram utilizados, aumentando a confiança e reduzindo a probabilidade de desinformação.

Verificação de Saída

Confirma que as saídas finais de IA são precisas e inalteradas. Em um contexto descentralizado, isso geralmente envolve mecanismos de prova (por exemplo, provas de conhecimento zero, consenso de amostragem) para garantir que os cálculos ou inferências não tenham sido adulterados fora da cadeia.

Desafios na Verificabilidade da IA On-Chain

Embora as blockchains sejam excelentes em fornecer registros imutáveis e confiança distribuída, os cálculos de IA on-chain podem ser proibitivamente caros. Por exemplo, a multiplicação de matrizes para 1000×1000 inteiros pode consumir bilhões de gás — além do limite de gás por bloco atual do Ethereum (Zheng et al., 2021). Consequentemente, a maioria dos projetos de IA depende de cálculos off-chain com verificação on-chain.

No entanto, abordagens off-chain introduzem novos desafios:

Potencial Fraude: Sem uma verificação robusta, atores maliciosos podem enviar dados incorretos ou manipulados.

Pontos Fracos Centralizados: Dependendo de oráculos off-chain ou servidores privados pode minar o ethos descentralizado, levando à censura ou pontos únicos de falha.

Portanto, as soluções emergentes visam manter alto desempenho ao incorporar verificação criptográfica ou baseada em amostragem, equilibrando eficiência e descentralização.

EigenLayer

EigenLayer é um protocolo de restaking que permite aos validadores do Ethereum "reinvestir" seu ETH para garantir serviços descentralizados adicionais, conhecidos como Serviços Ativamente Validados (AVS). Em vez de precisar de um novo conjunto de validadores para cada tarefa especializada (por exemplo, validação de IA, operações entre cadeias), EigenLayer reutiliza a rede robusta e descentralizada de validadores do Ethereum.

EigenLayer melhora a segurança ao permitir que novos Serviços Ativamente Validados (AVS) acessem o conjunto de validadores existente do Ethereum. Este conjunto de validadores já é grande, bem capitalizado e geograficamente distribuído, oferecendo garantias criptoeconômicas robustas sem a necessidade de inicializar uma nova rede do zero.

Ao habilitar o restaking, EigenLayer reduz significativamente os custos operacionais. Os projetos não precisam mais criar e manter seus próprios ecossistemas de validadores, o que reduz tanto os custos de infraestrutura quanto as barreiras para o lançamento de novos serviços descentralizados on-chain.

Além disso, o sistema oferece alta flexibilidade. AVS pode personalizar sua própria lógica de consenso e validação, enquanto ainda herda a segurança da camada base do Ethereum, tornando a EigenLayer uma base ideal para aplicativos descentralizados modulares, seguros e escaláveis.

Prova de Amostragem Hiperbólica (PoSP) da Gate.io

Hyperbolic Labs introduz o Proof of Sampling (PoSP), uma alternativa eficiente e escalável aos tradicionais zkML ou provas de fraude otimistas para validação de IA. Este novo protocolo de verificação baseado em amostragem garante que nossos usuários possam confiar nos resultados de seus modelos sendo treinados e executados em nossa rede decentralizada de GPU. Este protocolo, conhecido como Proof of Sampling (PoSP), é o novo padrão ouro para verificação em IA.

Desenvolvido pela equipe Hyperbolic em colaboração com pesquisadores da UC Berkeley e da Universidade de Columbia, o PoSP utiliza a teoria dos jogos para garantir sistemas descentralizados. Ele valida uma amostra estratégica de resultados e implementa um processo de arbitragem para nós desonestos incentivarem 100% de comportamento honesto em toda a rede.

A Prova de Provas Espontâneas (PoSP) oferece várias vantagens-chave: ela permite uma verificação eficiente adicionando menos de 1% de sobrecarga computacional, permitindo que os nós mantenham velocidades de operação próximas às nativas. Sua segurança robusta garante que os participantes permaneçam honestos, pois verificações aleatórias tornam a fraude muito arriscada para valer a pena. Através de incentivos de teoria dos jogos, a PoSP cria um Equilíbrio de Nash de estratégia pura onde o comportamento honesto é sempre a escolha racional. Por fim, a PoSP é altamente escalável para serviços de IA, capaz de suportar cargas de trabalho de IA descentralizadas em grande escala, garantindo que os processos de cálculo e inferência de alto desempenho permaneçam verificáveis e confiáveis.

Auditorias Aleatórias: Um conjunto rotativo de validadores (através do EigenLayer) amostra regularmente e verifica as computações de IA. Essa verificação contínua evita trapaças sistemáticas.

Incentivos de Equilíbrio de Nash: Comportamento malicioso é economicamente irracional para validadores — saídas desonestas ou inconsistentes levam a penalidades passíveis de corte.

Alta Capacidade: A sobrecarga de desempenho inferior do PoSP o torna adequado para casos de uso que exigem inferências de IA rápidas e frequentes.

Ao contrário de outras soluções de IA descentralizadas, quando você executa inferência na rede descentralizada da Hyperbolic, você pode ter certeza de que está recebendo um resultado válido.

Ao integrar o PoSP ao EigenLayer, os serviços de IA descentralizados podem alcançar um framework seguro e minimizado em confiança que pode lidar com um número crescente de solicitações de inferência sem sacrificar a descentralização ou a eficiência de custos.

Validação Aleatória: Os validadores são selecionados aleatoriamente para verificar as saídas, garantindo resultados imparciais.

Suporte AVS escalável: PoSP reduz as demandas computacionais, permitindo que a EigenLayer proteja serviços em grande escala de forma eficiente.

Dissuasão de Fraudes: Penas rigorosas tornam a desonestidade pouco lucrativa, enquanto o comportamento honesto permanece a estratégia ótima.

“O protocolo EigenLayer combinado com nosso protocolo de Prova de Amostragem transforma fundamentalmente a forma como garantimos serviços descentralizados. Agora oferecemos uma infraestrutura escalável, confiável e resistente a fraudes a uma fração do custo.” - Jasper Zhang, CEO da Hyperbolic


Leia o artigo completo sobre PoSP aqui

Mira

A Mira Network tem como objetivo resolver um desafio fundamental em IA, que é a tendência de modelos de linguagem grandes (LLMs) gerarem informações incorretas. Projetada para reduzir alucinações e maximizar a precisão de saída sem supervisão humana, a Mira utiliza uma rede descentralizada de nós independentes para verificar confiavelmente as saídas de IA em paralelo.

Existem três etapas na arquitetura da Mira

Binarização

O processo de dividir as saídas em 'reivindicações' mais simples.

Verificação Distribuída

As reivindicações acima são verificadas por uma rede de nós verificadores que executam modelos especializados para verificar as reivindicações. A verificação é feita em um formato de pergunta de múltipla escolha. As reivindicações para verificação são divididas aleatoriamente entre os verificadores, o que torna difícil a colusão.

Prova de Verificação

Um mecanismo de consenso híbrido que combina Prova de Trabalho (PoW) e Prova de Participação (PoS) é utilizado. Cada verificador precisa apostar para participar da verificação. Esta abordagem garante que os verificadores estejam realmente realizando inferência, em vez de apenas atestar. A aposta de um verificador será reduzida se for constatado que sua saída está constantemente desviando do consenso.

Uma vez que o consenso tenha sido alcançado pela rede sobre uma saída, um certificado criptográfico é gerado e escrito no blockchain, criando um registro imutável de fatos verificados.


Origem:Whitepaper da Mira Network

A privacidade é um aspecto-chave do design da Mira. Dado que as reivindicações são fragmentadas aleatoriamente, não é possível para um único operador de nó reconstruir a saída original. Além disso, as respostas de verificação de verificadores independentes são mantidas privadas antes do consenso, evitando vazamento de informações.

Mira está buscando verificar conteúdos cada vez mais complexos, que incluem código, dados estruturados e conteúdo multimídia. No futuro, Mira também reconstruirá conteúdos inválidos quando detectados, alcançando precisão e velocidade na saída de IA. Eventualmente, a Rede Mira será capaz de acumular fatos economicamente seguros, criando um banco de dados para verificação de fatos.

À medida que o uso da rede cresce - geração de taxas mais altas - melhores prêmios de verificação - atraem mais operadores de nós - precisão, custo e latência aprimorados na verificação das respostas

Atoma

Atoma é uma rede de execução de IA descentralizada, privada e verificável, ativa na mainnet Sui. A arquitetura central é composta por três elementos: (a) camada de cálculo e; (b) camada de verificação e; (c) camada de privacidade.

Camada de Cálculo

Uma rede global de nós de execução que processa solicitações de inferência. Um grande número de nós está disponível ao trabalhar com vários data centers e dispositivos de borda como dispositivos digitais individuais.

Com o Atoma, os pesos do modelo estão disponíveis localmente nos nós, aumentando a velocidade da inferência quando uma solicitação é recebida. Além disso, as solicitações recebidas são encaminhadas para o nó mais adequado, combinando a tarefa com o desempenho e custo correspondentes.

Atoma foca em otimizar a eficiência da execução de inferências através de algumas funcionalidades, incluindo FlashAttention e Paged Attention, ambas contribuindo para a redução da sobrecarga computacional.

Camada de Verificação

A integridade da computação é verificada por meio de consenso de amostragem. Este é um processo onde nós são selecionados aleatoriamente para executar a inferência e gerar um hash criptográfico da saída. Se todos os hashes gerados pelo conjunto selecionado de nós forem iguais, a saída da inferência é verificada. Caso haja uma discrepância entre os hashes gerados, a rede buscará o nó desonesto, que será penalizado através do corte de sua participação.

As chances de um atacante mal-intencionado ser capaz de controlar metade ou mais da potência total da GPU da rede para manipular o sistema são muito baixas, e tornam-se ainda mais difíceis à medida que a rede de nós se expande. O número de nós selecionados para amostragem é flexível, para tarefas com maior participação, um conjunto maior de nós pode ser escolhido.

Camada de Privacidade

A Atoma enfatiza a importância de manter os dados do usuário seguros e privados, executando cálculos em um Ambiente de Execução Confiável (TEE). Os dados inseridos pelos usuários são criptografados e só são descriptografados no TEE. Isso impede que outras partes na blockchain visualizem os dados do usuário. Depois que a inferência for executada, a saída é criptografada antes de ser devolvida aos usuários.

Apesar de ser uma solução segura, vale ressaltar que ela vem com um compromisso em termos de sobrecarga de computação mais alta, o que pode resultar em taxas mais altas para os usuários.

Rede Aizel

Similar ao Atoma Network acima, a Aizel Network opta por uma abordagem baseada em TEE. A diferença aqui é que a Aizel integrou a Computação Multi-Partes (MPC) em seu fluxo de trabalho, onde as tarefas de inferência são roteadas para diferentes TEEs. Isso tem como objetivo descentralizar a rede, garantindo que a inferência ainda seja possível mesmo quando um TEE é hackeado ou está inativo.

Quarenta e dois

Fortytwo campeões um modelo de “inferência de enxame” construído em torno de Modelos Pequenos e Especializados (SLMs). Em vez de depender de uma IA monolítica massiva, a rede orquestra múltiplos modelos operados por colaboradores, cada um ajustado para tarefas ou domínios específicos. Esses modelos trabalham em paralelo—verificando, refinando e cruzando as saídas uns dos outros—para fornecer inferências mais precisas e confiáveis.

Esta estrutura descentralizada enfrenta problemas que modelos únicos e grandes frequentemente enfrentam, como gargalos no treinamento, requisitos de hardware caros e pontos únicos de falha. Ao distribuir a inteligência em numerosos modelos e contribuintes menores, o Fortytwo garante escalabilidade e tolerância a falhas.

1. Modelos Especializados Pequenos (SLMs)

Inicialização Orientada por Intenção

Antes de iniciar qualquer tarefa, os colaboradores especificam o objetivo, o orçamento e as restrições. Essa abordagem alinha cada SLM com a missão geral, seja para resumir texto, analisar código ou qualquer outra inferência especializada.

Especializações Definidas pelo Contribuidor

Os operadores de nó individuais trazem seus próprios modelos ajustados à rede. Eles mantêm controle total sobre pesos, vieses e dados proprietários, garantindo privacidade para cada proprietário de modelo. Esses modelos especializados podem se concentrar em áreas como análise de sentimentos, análise de texto jurídico ou até mesmo geração de código específico de domínio.

Privacidade de Pesos & Biases

Um aspecto crítico do Fortytwo é que os contribuintes não precisam compartilhar os detalhes internos do modelo. Apenas os resultados da inferência são compartilhados com a rede. Este design preserva a propriedade intelectual de cada proprietário do modelo e ajuda a mitigar os riscos associados à exposição de dados sensíveis.

2. Inferência de Enxame & Avaliação de Pares

Colaboração Multi-SLM

As tarefas são divididas entre 7-8 (ou mais) SLMs especializados, cada um fornecendo uma perspectiva de domínio única. Ao dividir tarefas maiores em subproblemas menores, a rede aproveita melhor as forças de cada modelo.

Flat Mixture-of-Experts (MoE)

Em vez de empilhar sub-especialistas em várias camadas, a Fortytwo utiliza uma abordagem MoE 'plana', onde cada modelo processa os dados de forma independente. Este design pode ser particularmente eficiente porque evita a complexidade do gating hierárquico, permitindo que os especialistas se concentrem exclusivamente em suas respectivas sub tarefas.

Detecção Coletiva de Erros

A avaliação entre pares desempenha um papel fundamental na manutenção da precisão da inferência. Quando os modelos discordam, a rede sinaliza as discrepâncias para uma análise mais aprofundada. Esse processo de verificação cruzada é crucial para detectar erros precocemente e garantir uma saída de alta qualidade.

3. Baixa Latência & Computação Distribuída

Hardware de nível de consumidor

Fortytwo é otimizado para dispositivos como Apple Silicon e GPUs RTX, reduzindo as barreiras de custo e ampliando a base de potenciais operadores de nós. Esta abordagem democratiza a IA ao permitir que mais pessoas - e não apenas grandes centros de dados - participem.

Clusters de Implantação

Muitos operadores de nós escolhem plataformas de nuvem (por exemplo, AWS) ou clusters auto-hospedados para minimizar a latência. Clusters bem coordenados tornam-se particularmente valiosos em cenários sensíveis ao tempo, onde até pequenos atrasos podem impactar significativamente a experiência do usuário.

4. Comunidade de Operadores de Nós

Participação Crescente

Milhares de participantes manifestaram interesse em executar nós de inferência, criando uma rede diversificada e distribuída. Essa expansão traz mais recursos computacionais online, aumentando ainda mais a capacidade e a resiliência.

Contribuições de Modelo Semelhante à Wikipedia

Similar ao modo como os editores da Wikipedia colaboram em artigos, cada operador de nó pode aprimorar ou ajustar modelos especializados e compartilhar técnicas de inferência aprimoradas. Essa manutenção e refinamento coletivos promovem a inovação contínua e elevam a inteligência geral da rede.

Lagrange

Lagrange está na vanguarda do uso da tecnologia Zero-Knowledge (ZK) para trazer verificabilidade à IA. Seu lema - "O futuro da IA é ZK, e o futuro da humanidade é Lagrange" - destaca a crença de que, à medida que a IA evolui para a superinteligência, devemos garantir transparência e confiança na forma como esses modelos funcionam.

DeepProve: Alto Desempenho zkML

  • Prova do Modelo Correto: DeepProve confirma criptograficamente que o modelo de IA correto foi usado para uma inferência específica, não deixando margem para manipulação ou falsificação.
  • Prova de Saída Correta: Também garante que a saída esteja alinhada com o que o modelo genuinamente produziria, impedindo que atores maliciosos injetem resultados falsos.
  • Melhorias de desempenho: Apresenta geração de prova 158 vezes mais rápida e verificação 671 vezes mais rápida do que muitas soluções zkML existentes, tornando viável a implantação em larga escala.

Ao remover interações de IA "caixa preta", Lagrange garante que os usuários não precisam confiar cegamente na IA. Em ambientes descentralizados, onde a minimização da confiança é fundamental, a certeza criptográfica sobre a integridade do modelo e a correção da saída se torna essencial.

Além disso, Inference Labs atua como o braço focado em aplicativos da Lagrange, fazendo a ponte entre pesquisa e implementações práticas. Enquanto Lagrange se concentra no design criptográfico e de circuitos principais, Inference Labs garante que essas inovações estejam prontas para produção.

Integrações do Mundo Real

Incorpora o zkML em pipelines de machine learning existentes, focando em setores como DeFi, jogos, saúde e procedência da cadeia de suprimentos.

Parceiros com líderes da indústria para testar as novas características de Lagrange sob restrições do mundo real (por exemplo, grande quantidade de parâmetros, requisitos estritos de latência).

EZKL

EZKL é um sistema de código aberto para criar IA verificável e análises usando provas de conhecimento zero (ZKPs). Permite aos desenvolvedores provar que os modelos de IA foram executados corretamente sem revelar dados sensíveis ou detalhes do modelo proprietário. Inspirado em sistemas como o Face ID da Apple, o EZKL estende a segurança do modelo incomparável a qualquer modelo em qualquer dispositivo—sem depender de hardware especializado como TEEs.

Infraestrutura de Prova de Conhecimento Zero

EZKL automatiza todo o ciclo de vida da ZKP - desde a compilação do modelo até a geração e verificação da prova. Os usuários fornecem modelos de IA no formato ONNX, que o EZKL compila em circuitos ZK-friendly usando uma versão otimizada do sistema de prova Halo2. O sistema então gera provas criptográficas da execução correta do modelo que podem ser verificadas em qualquer dispositivo.

Esse processo criptográfico permite confiança descentralizada em aplicações de IA de alto risco, como tomada de decisões financeiras, autenticação biométrica e validação de inferência em tempo real.

SNARKs colaborativos (Cosnarks)

A EZKL recentemente introduziu SNARKs Colaborativos (cosnarks), permitindo que duas partes - como um proprietário de modelo e um proprietário de dados - gerem em conjunto uma prova ZK sem que nenhuma das partes revele seus ativos confidenciais. Ao contrário dos sistemas de prova MPC delegados, os cosnarks eliminam suposições adicionais de confiança limitando a computação apenas às partes envolvidas.

Essa avanço permite casos de uso como pontuação de crédito privada, estratégias de negociação confidenciais e verificação de identidade de conhecimento zero. A implementação alavanca a biblioteca MPC otimizada 2PC da Renegade e é integrada diretamente ao Lilith, camada de orquestração de nuvem EZKL.

Suporte ao Modelo e Flexibilidade

EZKL suporta uma ampla gama de arquiteturas de AI/ML, incluindo CNNs, RNNs, transformers no estilo GPT, árvores de decisão e modelos de difusão estáveis. Qualquer modelo compatível com o padrão ONNX pode ser convertido em um circuito ZK.

Ao abstrair a lógica do modelo em circuitos matemáticos, o EZKL permite inferência preservadora de privacidade em setores como finanças, saúde e identidade. A lógica baseada em árvores, mecanismos de atenção e operações de matriz em grande escala são todos suportados dentro do framework suportado pelo Halo2.

Experiência do Desenvolvedor

EZKL prioriza a acessibilidade e a abstração da complexidade. Os desenvolvedores não precisam de conhecimentos criptográficos anteriores, experiência em design de circuitos ou habilidades avançadas de DevOps. O sistema oferece ligações em CLI, Python, JavaScript e Rust, tornando fácil incorporar fluxos de trabalho ZK em pipelines de ML existentes.

Geração automática de restrições, comandos de prova simplificados e integração perfeita com ferramentas de orquestração permitem que os desenvolvedores se concentrem exclusivamente na lógica da aplicação.

Protocolo ORA

ORA é um protocolo de oráculo agnóstico de cadeia que une IA e blockchain, permitindo que os desenvolvedores construam aplicativos totalmente descentralizados e sem confiança alimentados por aprendizado de máquina verificável. Através de sua infraestrutura, ORA traz inferência de IA, geração de conteúdo e cálculos complexos diretamente na cadeia, eliminando a dependência de APIs offchain ou cálculos centralizados. Sua inovação central reside na combinação da execução de IA com provas criptográficas, criando pipelines de IA programáveis com verificabilidade incorporada.

O protocolo permite que qualquer desenvolvedor construa aplicações onde as saídas de IA - seja uma resposta de modelo de linguagem, uma imagem gerada ou uma declaração verificada - possam ser incorporadas em contratos inteligentes com garantias de auditabilidade e correção.

Onchain AI Oracle (OAO)

O Onchain AI Oracle (OAO) é o produto principal da ORA. Ele permite que contratos inteligentes solicitem, recebam e ajam com base nos resultados das inferências de IA realizadas offchain, mas verificadas e liquidadas onchain. Os desenvolvedores podem chamar um trabalho de inferência de IA por meio da rede opML da ORA. O resultado é retornado por meio de uma função de retorno de chamada no contrato do usuário, tornando as aplicações onchain nativas de IA e totalmente autônomas.

OAO suporta vários modelos grandes—como LLaMA3, Stable Diffusion, OpenLM Chat/Score—em execução por meio de infraestrutura verificável. Os desenvolvedores podem integrar o OAO em qualquer cadeia compatível com EVM, e contratos inteligentes pré-construídos como Prompt e SimplePrompt permitem a prototipagem rápida com otimização de gás em mente.

opML e Fluxo de Verificabilidade

O sistema de aprendizado de máquina otimista (opML) da ORA alimenta sua camada de verificabilidade. Quando um trabalho de inferência é iniciado, o resultado é postado on-chain com um período de desafio. Durante esse tempo, os validadores de opML podem verificar o resultado e, se estiver incorreto, enviar uma prova de fraude. O resultado correto substitui o desafiado. Isso garante que as saídas de IA incorporadas em contratos inteligentes sejam verificáveis, resistentes à censura e economicamente seguras.

Esta abordagem otimista equilibra desempenho e descentralização. Ao contrário do zkML, que pode exigir uma computação pesada antecipada, o opML torna economicamente irracional que o comportamento desonesto tenha sucesso, especialmente à medida que a rede de validadores cresce.

Integração do Desenvolvedor

Os desenvolvedores interagem com a OAO através de uma interface modular bem documentada. Para integrar a IA a um contrato inteligente, um desenvolvedor herda AIOracleCallbackReceiver e implementa a função aiOracleCallback() para receber resultados. Eles podem então chamar o oráculo para iniciar a inferência usando IDs de modelo, dados de entrada e um endereço de callback.

Atualmente, quatro modelos estão implantados no Arbitrum, e a integração pode ser tão simples quanto usar os modelos Prompt da ORA. A infraestrutura também suporta casos de uso mais avançados por meio de sua orquestração de computação com Lilith, possibilitando inferências mais rápidas e cargas de trabalho de alto rendimento.

Oferta do Modelo Inicial (IMO)

ORA criou o framework de Oferta do Modelo Inicial (IMO) para descentralizar a propriedade, receita e governança do modelo de IA. Os IMOs tokenizam modelos de IA através de uma estrutura de duplo token:

  • ERC-7007: Ancora saídas geradas por IA verificáveis (por exemplo, imagens, previsões) diretamente onchain.
  • ERC-7641: Distribui receita do uso do modelo para detentores de tokens, criando sistemas de IA governados pela comunidade alinhados com incentivos.

Ao habilitar a governança e a monetização baseadas em tokens, os IMOs financiam o desenvolvimento de código aberto, garantindo que a infraestrutura de IA permaneça resistente à censura, globalmente acessível e coletivamente de propriedade.

Conclusão

À medida que o vertical de IA continua a crescer, a necessidade de saídas de IA verificáveis torna-se cada vez mais crítica. Evidente a partir do acima, existem abordagens diversas para garantir a ausência de confiança em soluções de IA descentralizadas, incluindo ambientes de execução confiáveis (TEEs), Prova de Amostragem (PoSP), Aprendizado de Máquina com Conhecimento Zero (ZKML) e Aprendizado de Máquina Otimista (OPML).

As abordagens diferem em diversos aspectos, nomeadamente o custo, o tempo decorrido e o nível de garantias de segurança. É provável que todas as soluções mencionadas acima sejam utilizadas de alguma forma, dependendo dos casos de uso específicos.

Aviso legal:

  1. Este artigo é reproduzido a partir de [GateHiperbólico - e/acc]. Encaminhar o Título Original 'AI and Verifiability'. Todos os direitos autorais pertencem ao autor original [Hiperbólico - e/acc]. Se houver objeções a este reenvio, entre em contato com o Gate Learnequipe e eles lidarão com isso prontamente.
  2. Aviso de responsabilidade: As opiniões expressas neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.
  3. A equipe do Gate Learn faz traduções do artigo para outros idiomas. Copiar, distribuir ou plagiar os artigos traduzidos é proibido, a menos que seja mencionado.
Start Now
Sign up and get a
$100
Voucher!