As 6 Soluções Emergentes de Verificação de IA em 2025

Intermediário4/17/2025, 2:03:08 AM
Este artigo explora soluções de ponta no campo da verificabilidade da IA em 2025, com uma análise aprofundada de seis projetos principais: EigenLayer, Hyperbolic, Mira, Atoma, Fortytwo e Lagrange. Estas iniciativas adotam abordagens técnicas diversas - incluindo Prova de Amostragem (PoSP), Ambientes de Execução Confiáveis (TEEs) e Provas de Conhecimento Zero (ZKPs) - para enfrentar o desafio da confiabilidade das saídas da IA. Cada solução oferece vantagens únicas e é adequada para casos de uso específicos, avançando coletivamente o desenvolvimento da infraestrutura de IA descentralizada.

Encaminhar o Título Original 'AI and Verifiability'

À medida que os sistemas de IA se integram cada vez mais com os ecossistemas de blockchain, garantir a verificabilidade das saídas de IA torna-se uma pedra angular para fomentar a confiança, transparência e responsabilidade. Isso é especialmente crítico para as aplicações de finanças descentralizadas (DeFi) e de prova de identidade, onde a precisão e confiabilidade podem influenciar diretamente os resultados financeiros, as decisões de governança e a identidade do usuário.

O Caso da IA Verificável em Sistemas Descentralizados

AI Observabilidade

Garante que os processos de tomada de decisão são transparentes e compreensíveis. As partes interessadas obtêm insights sobre como as conclusões são obtidas—vital quando as decisões influenciam transações on-chain ou governança em grande escala.

Rastreabilidade da Fonte

Regista os dados, parâmetros e arquiteturas de modelos utilizados para gerar previsões de IA. Ao estabelecer a proveniência, os utilizadores sabem de onde vieram os dados de treino e quais modelos foram utilizados, aumentando a confiança e reduzindo a probabilidade de desinformação.

Verificação de Saída

Confirma que as saídas finais de IA são precisas e inalteradas. Num contexto descentralizado, isso envolve frequentemente mecanismos de prova (por exemplo, provas de conhecimento zero, consenso de amostragem) para garantir que os cálculos ou inferências não foram adulterados fora da cadeia.

Desafios na Verificabilidade de IA On-Chain

Embora as blockchains sejam excelentes em fornecer registros imutáveis e confiança distribuída, os cálculos de IA on-chain podem ser proibitivamente caros. Por exemplo, a multiplicação de matrizes para 1000×1000 inteiros pode consumir bilhões de gás — além do limite de gás por bloco atual do Ethereum (Zheng et al., 2021). Consequentemente, a maioria dos projetos de IA depende de computação off-chain com verificação on-chain.

No entanto, as abordagens fora da cadeia introduzem novos desafios:

Potencial Fraude: Sem uma verificação robusta, atores maliciosos podem submeter dados incorretos ou manipulados.

Pontos Fracos Centralizados: Depender de oráculos fora da cadeia ou servidores privados pode minar o ethos descentralizado, levando à censura ou a pontos únicos de falha.

Assim, as soluções emergentes visam manter um alto desempenho ao incorporar verificação criptográfica ou baseada em amostragem, equilibrando eficiência e descentralização.

EigenLayer

EigenLayer é um protocolo de restaking que permite aos validadores do Ethereum "restake" o seu ETH para garantir serviços descentralizados adicionais, conhecidos como Serviços Validados Ativamente (AVS). Em vez de precisar de um novo conjunto de validadores para cada tarefa especializada (por exemplo, validação de IA, operações entre cadeias), EigenLayer reutiliza a rede robusta e descentralizada de validadores do Ethereum.

EigenLayer melhora a segurança ao permitir que novos Serviços Validados Ativamente (AVS) se conectem ao conjunto de validadores existente do Ethereum. Este conjunto de validadores já é grande, bem capitalizado e geograficamente distribuído, oferecendo garantias criptoeconômicas robustas sem a necessidade de inicializar uma nova rede do zero.

Ao permitir o restaking, EigenLayer reduz significativamente os custos operacionais. Os projetos já não precisam de criar e manter os seus próprios ecossistemas de validadores, o que reduz tanto os custos de infraestrutura como as barreiras para lançar novos serviços descentralizados on-chain.

Além disso, o sistema oferece alta flexibilidade. AVS pode personalizar sua própria lógica de consenso e validação, ao mesmo tempo que herda a segurança da camada base da Ethereum, tornando a EigenLayer uma base ideal para aplicações descentralizadas modulares, seguras e escaláveis.

Prova de Amostragem Hiperbólica (PoSP) da Hyperbolic

A Hyperbolic Labs apresenta o Proof of Sampling (PoSP), uma alternativa eficiente e escalável aos zkML tradicionais ou às provas de fraude otimistas para validação de IA. Este novo protocolo de verificação baseado em amostragem garante que os nossos utilizadores possam confiar nos resultados dos seus modelos em treino e execução na nossa rede descentralizada de GPU. Este protocolo, conhecido como Proof of Sampling (PoSP), é o novo padrão de ouro para verificação em IA.

Desenvolvido pela equipa Hyperbolic em colaboração com investigadores da UC Berkeley e da Universidade de Columbia, o PoSP utiliza a teoria dos jogos para garantir a segurança de sistemas descentralizados. Valida uma amostra estratégica de resultados e implementa um processo de arbitragem para nodos desonestos incentivarem comportamentos 100% honestos em toda a rede.

A Prova de Provas Espontâneas (PoSP) oferece várias vantagens-chave: permite uma verificação eficiente, adicionando menos de 1% de sobrecarga computacional, permitindo que os nós mantenham velocidades de operação próximas do nativo. A sua segurança robusta garante que os participantes permaneçam honestos, uma vez que verificações aleatórias tornam a fraude muito arriscada para ser compensadora. Através de incentivos de teoria dos jogos, a PoSP cria um Equilíbrio de Nash de estratégia pura onde o comportamento honesto é sempre a escolha racional. Finalmente, a PoSP é altamente escalável para serviços de IA, capaz de suportar cargas de trabalho de IA descentralizadas em grande escala, garantindo ao mesmo tempo que os processos de computação de alto desempenho e inferência permaneçam verificáveis e confiáveis.

Auditorias aleatórias: Um conjunto rotativo de validadores (através do EigenLayer) amostra e verifica regularmente as computações de IA. Esta verificação contínua evita trapaças sistemáticas.

Incentivos do Equilíbrio de Nash: O comportamento malicioso é economicamente irracional para os validadores — saídas desonestas ou inconsistentes levam a penalidades passíveis de corte.

Alta capacidade de processamento: a menor sobrecarga de desempenho do PoSP torna-o adequado para casos de uso que exigem inferências rápidas e frequentes de IA.

Ao contrário de outras soluções de IA descentralizadas, quando executa inferências na rede descentralizada da Hyperbolic, pode ter a certeza de que está a receber um resultado válido.

Ao integrar o PoSP no EigenLayer, os serviços descentralizados de IA podem alcançar um framework seguro e minimizado em termos de confiança que pode lidar com um número crescente de pedidos de inferência sem sacrificar a descentralização ou a eficiência de custos.

Validação Aleatória: Os validadores são selecionados aleatoriamente para verificar as saídas, garantindo resultados imparciais.

Suporte AVS escalável: PoSP reduz as demandas computacionais, permitindo que a EigenLayer assegure serviços em grande escala de forma eficiente.

Dissuasão de fraude: Penas rigorosas tornam a desonestidade pouco lucrativa, enquanto o comportamento honesto permanece a estratégia ótima.

“O protocolo EigenLayer combinado com o nosso protocolo de Prova de Amostragem transforma fundamentalmente a forma como garantimos serviços descentralizados. Agora oferecemos uma infraestrutura escalável, confiável e resistente a fraudes a uma fração do custo.” - Jasper Zhang, CEO da Hyperbolic


Leia o artigo completo sobre PoSP aqui

Mira

A Mira Network tem como objetivo enfrentar um desafio fundamental na IA, que é a tendência dos grandes modelos de linguagem (LLMs) de gerar informações incorretas. Projetada para reduzir alucinações e maximizar a precisão de saída sem supervisão humana, a Mira aproveita uma rede descentralizada de nós independentes para verificar de forma confiável as saídas de IA em paralelo.

Existem três etapas na arquitetura da Mira

Binarização

O processo de dividir saídas em ‘reivindicações’ mais simples.

Verificação Distribuída

As alegações acima são verificadas por uma rede de nós verificadores que executam modelos especializados para verificar as alegações. A verificação é feita num formato de pergunta de escolha múltipla. As alegações para verificação são distribuídas aleatoriamente entre os verificadores, o que torna difícil a colusão.

Prova de Verificação

Um mecanismo de consenso híbrido que combina Proof-of-Work (PoW) e Proof-of-Stake (PoS) é utilizado. Cada verificador precisa apostar para participar na verificação. Esta abordagem garante que os verificadores estão realmente a realizar inferências, em vez de apenas atestar. A aposta de um verificador será reduzida se for constatado que a sua saída está constantemente a desviar-se do consenso.

Uma vez que o consenso foi alcançado pela rede sobre uma saída, um certificado criptográfico é gerado e escrito no blockchain, criando um registro imutável de fatos verificados.


Origem:Whitepaper da Mira Network

A privacidade é um aspecto chave do design da Mira. Dado que as reivindicações são fragmentadas aleatoriamente, não é possível para um único operador de nó reconstruir a saída original. Além disso, as respostas de verificação dos verificadores independentes são mantidas privadas antes do consenso, prevenindo vazamento de informações.

Mira procura verificar conteúdo cada vez mais complexo, que inclui código, dados estruturados e conteúdo multimédia. No futuro, Mira também irá reconstruir conteúdo inválido quando for detetado, alcançando precisão e rapidez na produção de IA. Eventualmente, a Mira Network será capaz de acumular factos economicamente seguros, criando uma base de dados para verificação de factos.

À medida que o uso da rede cresce - maior geração de taxas - melhores prémios de verificação - atrair mais operadores de nós - precisão, custo e latência melhorados na verificação de respostas

Atoma

Atoma é uma rede de execução de IA descentralizada, privada e verificável, ativa na rede principal Sui. A arquitetura central é composta por três elementos: (a) camada de computação e; (b) camada de verificação e; (c) camada de privacidade.

Camada de Cálculo

Uma rede global de nós de execução que processa pedidos de inferência. Um grande número de nós está disponível ao trabalhar com vários centros de dados e dispositivos periféricos como os dispositivos digitais individuais.

Com o Atoma, os pesos do modelo estão disponíveis localmente nos nós, aumentando a velocidade da inferência quando um pedido é recebido. Além disso, os pedidos recebidos são encaminhados para o nó mais adequado, correspondendo a tarefa com o desempenho e custo correspondentes.

Atoma concentra-se na otimização da eficiência na execução de inferências através de um par de funcionalidades, incluindo FlashAttention e Paged Attention, ambas contribuindo para a redução da sobrecarga computacional.

Camada de Verificação

A integridade da computação é verificada através do consenso de amostragem. Este é um processo em que os nós são selecionados aleatoriamente para executar a inferência e gerar um hash criptográfico da saída. Se todos os hashes gerados pelo conjunto selecionado de nós coincidirem, a saída da inferência é verificada. Caso haja uma discrepância entre os hashes gerados, a rede irá procurar o nó desonesto, que será penalizado através da redução da sua participação.

As probabilidades de um atacante malicioso conseguir controlar metade ou mais da potência da GPU de toda a rede para manipular o sistema são muito baixas e tornam-se ainda mais difíceis à medida que a rede de nós aumenta. O número de nós selecionados para amostragem é flexível, para tarefas com maior participação, um conjunto maior de nós pode ser escolhido.

Camada de privacidade

Atoma enfatiza a segurança e privacidade dos dados do usuário, executando cálculos num Ambiente de Execução Confiável (TEE). Os dados inseridos pelos usuários são criptografados e só são descriptografados no TEE. Isso impede que outras partes na blockchain visualizem os dados do usuário. Uma vez que a inferência é executada, a saída é criptografada antes de ser devolvida aos usuários.

Apesar de ser uma solução segura, vale ressaltar que ela vem com uma compensação em termos de sobrecarga computacional mais alta, o que pode resultar em taxas mais altas para os usuários.

Rede Aizel

Similar ao Atoma Network acima, a Aizel Network opta por uma abordagem baseada em TEE. A diferença aqui é que a Aizel integrou a Computação Multi-Partes (MPC) no seu fluxo de trabalho, onde as tarefas de inferência são encaminhadas para diferentes TEEs. Isso tem como objetivo descentralizar a rede, garantindo que a inferência ainda seja possível mesmo quando um TEE é hackeado ou está inativo.

Quarenta e dois

Fortytwo defende um modelo de “inferência de enxame” construído em torno de Pequenos Modelos Especializados (SLMs). Em vez de depender de uma IA monolítica massiva, a rede orquestra múltiplos modelos executados por contribuidores, cada um ajustado para tarefas ou domínios específicos. Estes modelos trabalham em paralelo—verificando, refinando e cruzando as saídas uns dos outros—para fornecer inferências mais precisas e confiáveis.

Esta estrutura descentralizada enfrenta problemas que os modelos únicos e grandes frequentemente enfrentam, como gargalos na formação, requisitos dispendiosos de hardware e pontos únicos de falha. Ao distribuir a inteligência por numerosos modelos e contribuidores mais pequenos, o Fortytwo garante escalabilidade e tolerância a falhas.

1. Modelos Especializados Pequenos (SLMs)

Inicialização Baseada em Intenção

Antes de iniciar qualquer tarefa, os contribuidores especificam o objetivo, o orçamento e as restrições. Esta abordagem alinha cada SLM com a missão global - seja a de resumir texto, analisar código ou qualquer outra inferência especializada.

Especializações Definidas pelo Colaborador

Os operadores de nós individuais trazem seus próprios modelos ajustados à rede. Eles mantêm o controle total sobre pesos, vieses e dados proprietários, garantindo a privacidade de cada proprietário de modelo. Esses modelos especializados podem focar em áreas como análise de sentimentos, análise de texto jurídico ou até mesmo geração de código específico de domínio.

Privacidade de Pesos & Biases

Um aspecto crítico do Fortytwo é que os contribuidores não precisam compartilhar os detalhes do modelo bruto. Apenas os resultados da inferência são compartilhados com a rede. Este design preserva a propriedade intelectual de cada proprietário do modelo e ajuda a mitigar os riscos associados à exposição de dados sensíveis.

2. Inferência de Enxame & Avaliação de Pares

Colaboração Multi-SLM

As tarefas são divididas entre 7–8 (ou mais) SLMs especializados, cada um fornecendo uma perspetiva de domínio única. Ao dividir tarefas maiores em sub-problemas menores, a rede aproveita de forma mais eficaz as capacidades de cada modelo.

Mistura de Especialistas (MoE) plana

Em vez de empilhar sub-especialistas em várias camadas, o Fortytwo utiliza uma abordagem MoE “plana”, onde cada modelo processa os dados de forma independente. Este design pode ser particularmente eficiente porque evita a complexidade da ativação hierárquica, permitindo que os especialistas se foquem exclusivamente nas suas tarefas secundárias.

Detecção Coletiva de Erros

A avaliação entre pares desempenha um papel fundamental na manutenção da precisão da inferência. Quando os modelos discordam, a rede assinala as discrepâncias para uma análise mais profunda. Este processo de verificação cruzada é crucial para detetar erros precocemente e garantir uma produção de alta qualidade.

3. Baixa Latência & Computação Distribuída

Hardware de nível do consumidor

Fortytwo é otimizado para dispositivos como Apple Silicon e GPUs RTX, diminuindo as barreiras de custo e ampliando a base de potenciais operadores de nós. Esta abordagem democratiza a IA, permitindo que mais indivíduos - e não apenas grandes centros de dados - participem.

Clusters de Implementação

Muitos operadores de nós escolhem plataformas de nuvem (por exemplo, AWS) ou clusters auto-alojados para minimizar a latência. Clusters bem coordenados tornam-se particularmente valiosos em cenários sensíveis ao tempo, onde até pequenos atrasos podem impactar significativamente a experiência do usuário.

4. Comunidade de Operadores de Nó

Participação crescente

Milhares de participantes manifestaram interesse em executar nós de inferência, criando uma rede diversificada e distribuída. Esta expansão traz mais recursos computacionais online, aumentando ainda mais a capacidade e a resiliência.

Contribuições ao Modelo Semelhante à Wikipedia

Semelhante à forma como os editores da Wikipedia colaboram em artigos, cada operador de nó pode aprimorar ou ajustar modelos especializados e partilhar técnicas de inferência melhoradas. Esta manutenção coletiva e refinamento promove a inovação contínua e eleva a inteligência global da rede.

Lagrange

A Lagrange está na vanguarda da utilização da tecnologia de Zero-Knowledge (ZK) para trazer verificabilidade à IA. O seu lema—“O futuro da IA é ZK, e o futuro da humanidade é Lagrange”—sublinha a crença de que, à medida que a IA evolui para a superinteligência, devemos garantir transparência e confiança na forma como estes modelos funcionam.

DeepProve: Alto desempenho zkML

  • Prova do Modelo Correto: DeepProve confirma criptograficamente que o modelo de IA correto foi usado para uma inferência específica, não deixando espaço para manipulação ou falsificação.
  • Prova de Saída Correta: Também garante que a saída esteja alinhada com o que o modelo produziria genuinamente, impedindo que atores maliciosos injetem resultados falsos.
  • Melhorias de desempenho: Apresenta uma geração de prova 158 vezes mais rápida e uma verificação 671 vezes mais rápida do que muitas soluções zkML existentes, tornando viável a implementação em grande escala.

Ao remover interações de IA de “caixa preta”, Lagrange garante que os usuários não precisam confiar cegamente na IA. Em ambientes descentralizados onde a minimização da confiança é primordial, a certeza criptográfica sobre a integridade do modelo e a correção da saída se torna essencial.

Além disso, a Inference Labs opera como o braço focado em aplicações da Lagrange, fazendo a ponte entre a pesquisa e as implementações práticas. Enquanto a Lagrange se concentra no design criptográfico e de circuitos centrais, a Inference Labs garante que essas inovações estejam prontas para produção.

Integrações do Mundo Real

Incorpora o zkML em pipelines de machine learning existentes, com foco em setores como DeFi, jogos, saúde e origem da cadeia de abastecimento.

Parceiros com líderes da indústria para testar as novas funcionalidades de Lagrange sob restrições do mundo real (por exemplo, contagens de parâmetros grandes, requisitos rígidos de latência).

EZKL

EZKL é um sistema de código aberto para criar IA e análises verificáveis usando provas de conhecimento zero (ZKPs). Permite aos desenvolvedores provar que os modelos de IA foram executados corretamente sem revelar dados sensíveis ou detalhes do modelo proprietários. Inspirado em sistemas como o Face ID da Apple, o EZKL estende a segurança do modelo intransponível a qualquer modelo em qualquer dispositivo, sem depender de hardware especializado como TEEs.

Infraestrutura de Prova de Conhecimento Zero

EZKL automatiza todo o ciclo de vida de ZKP - desde a compilação do modelo até a geração e verificação da prova. Os utilizadores fornecem modelos de IA em formato ONNX, que o EZKL compila em circuitos ZK-friendly usando uma versão otimizada do sistema de prova Halo2. O sistema gera então provas criptográficas de execução correta do modelo que podem ser verificadas em qualquer dispositivo.

Este processo criptográfico permite confiança descentralizada em aplicações de IA de alto risco, como tomada de decisões financeiras, autenticação biométrica e validação de inferência em tempo real.

SNARKs colaborativos (Cosnarks)

A EZKL introduziu recentemente SNARKs Colaborativos (cosnarks), permitindo que duas partes - como um proprietário de modelo e um proprietário de dados - gerem em conjunto uma prova ZK sem que nenhuma das partes revele seus ativos confidenciais. Ao contrário dos sistemas de prova MPC delegados, os cosnarks eliminam pressupostos de confiança adicionais limitando a computação apenas às partes envolvidas.

Este avanço permite casos de uso como a pontuação de crédito privada, estratégias de negociação confidenciais e verificação de identidade de conhecimento zero. A implementação alavanca a biblioteca MPC otimizada 2PC da Renegade e é integrada diretamente no Lilith, camada de orquestração em nuvem da EZKL.

Suporte de Modelo e Flexibilidade

O EZKL suporta uma ampla gama de arquiteturas de IA/AM, incluindo CNNs, RNNs, transformadores no estilo GPT, árvores de decisão e modelos de difusão estáveis. Qualquer modelo compatível com o padrão ONNX pode ser convertido em um circuito ZK.

Ao abstrair a lógica do modelo em circuitos matemáticos, o EZKL permite inferência preservadora de privacidade em setores como finanças, saúde e identidade. A lógica baseada em árvore, mecanismos de atenção e operações de matriz em grande escala são todos suportados dentro do framework suportado pelo Halo2.

Experiência do programador

EZKL prioriza a acessibilidade e a abstração da complexidade. Os desenvolvedores não precisam de conhecimento criptográfico prévio, experiência em design de circuitos ou habilidades avançadas de DevOps. O sistema oferece ligações em CLI, Python, JavaScript e Rust, tornando fácil incorporar fluxos de trabalho ZK em pipelines de ML existentes.

Geração automática de restrições, comandos de prova simplificados e integração perfeita com ferramentas de orquestração permitem que os desenvolvedores se concentrem exclusivamente na lógica da aplicação.

Protocolo ORA

ORA é um protocolo de oráculo agnóstico em relação às cadeias que liga a IA e a blockchain, permitindo aos programadores construir aplicações totalmente descentralizadas e sem confiança, alimentadas por aprendizagem automática verificável. Através da sua infraestrutura, a ORA traz inferência de IA, geração de conteúdo e cálculos complexos diretamente on-chain, eliminando a dependência de APIs off-chain ou cálculos centralizados. A sua inovação central reside na combinação da execução de IA com provas criptográficas, criando pipelines de IA programáveis com verificabilidade incorporada.

O protocolo permite a qualquer programador construir aplicações onde as saídas de IA - seja uma resposta de modelo de linguagem, uma imagem gerada, ou uma declaração verificada de factos - possam ser incorporadas em contratos inteligentes com garantias de auditabilidade e correção.

Oráculo de IA Onchain (OAO)

O Oráculo de IA Onchain (OAO) é o produto principal da ORA. Permite que contratos inteligentes solicitem, recebam e ajam com base nos resultados das inferências de IA executadas offchain, mas verificadas e resolvidas onchain. Os desenvolvedores podem chamar um trabalho de inferência de IA através da rede opML da ORA. O resultado é retornado através de uma função de retorno de chamada no contrato do usuário, tornando as aplicações onchain nativas de IA e totalmente autônomas.

O OAO suporta vários modelos grandes, como LLaMA3, Stable Diffusion, OpenLM Chat/Score, em execução através de uma infraestrutura verificável. Os desenvolvedores podem integrar o OAO em qualquer cadeia compatível com EVM, e contratos inteligentes pré-construídos como o Prompt e o SimplePrompt permitem prototipagem rápida com otimização de gás em mente.

opML e Fluxo de Verificação

O sistema de aprendizagem de máquina otimista (opML) da ORA alimenta a sua camada de verificabilidade. Quando um trabalho de inferência é iniciado, o resultado é publicado on-chain com um período de desafio. Durante este tempo, os validadores de opML podem verificar o resultado e, se estiver incorreto, apresentar uma prova de fraude. O resultado correto substitui o desafiado. Isto garante que as saídas de IA incorporadas em contratos inteligentes são verificáveis, resistentes à censura e economicamente seguras.

Esta abordagem otimista equilibra o desempenho e a descentralização. Ao contrário do zkML, que pode exigir uma computação pesada antecipadamente, o opML torna economicamente irracional o sucesso de comportamentos desonestos, especialmente à medida que a rede de validadores aumenta.

Integração do Desenvolvedor

Os desenvolvedores interagem com a OAO através de uma interface modular bem documentada. Para integrar a IA num contrato inteligente, um desenvolvedor herda AIOracleCallbackReceiver e implementa a função aiOracleCallback() para receber resultados. Eles podem então chamar o oráculo para iniciar inferências usando IDs de modelo, dados de entrada e um endereço de retorno de chamada.

Atualmente, quatro modelos estão implementados no Arbitrum, e a integração pode ser tão simples como usar os modelos Prompt da ORA. A infraestrutura também suporta casos de uso mais avançados através da sua orquestração de computação alimentada por Lilith, permitindo inferências mais rápidas e cargas de trabalho de alto rendimento.

Oferta de Modelo Inicial (IMO)

ORA criou o quadro de Oferta de Modelo Inicial (IMO) para descentralizar a propriedade, receita e governança de modelos de IA. Os IMOs tokenizam modelos de IA através de uma estrutura de duplo token:

  • ERC-7007: Ancora saídas geradas por IA verificáveis (por exemplo, imagens, previsões) diretamente na cadeia.
  • ERC-7641: Distribui receitas provenientes da utilização do modelo para detentores de tokens, criando sistemas de IA governados pela comunidade alinhados com incentivos.

Ao permitir a governação e monetização baseada em tokens, os IMOs financiam o desenvolvimento de código aberto, garantindo que a infraestrutura de IA permaneça resistente à censura, globalmente acessível e coletivamente detida.

Conclusão

À medida que o vertical de IA continua a crescer, a necessidade de saídas de IA verificáveis torna-se cada vez mais crítica. Evidente a partir do acima, existem abordagens diversas para garantir a confiança em soluções de IA descentralizadas, incluindo ambientes de execução confiáveis (TEEs), Prova de Amostragem (PoSP), Aprendizagem de Máquina de Conhecimento Zero (ZKML) e Aprendizagem de Máquina Otimista (OPML).

As abordagens diferem em vários aspectos, nomeadamente o custo, o tempo decorrido e o nível de garantias de segurança. É provável que todas as soluções acima mencionadas sejam utilizadas de alguma forma, dependendo dos casos de uso específicos.

Aviso legal:

  1. Este artigo foi reeditado a partir de [GateHiperbólico - e / accEncaminhar o Título Original 'AI and Verifiability'. Todos os direitos de autor pertencem ao autor originalHiperbólico - e/acc]. Se houver objeções a esta reimpressão, entre em contato com o Gate Learnequipa e eles vão lidar com isso prontamente.
  2. Aviso de responsabilidade: As opiniões expressas neste artigo são exclusivamente as do autor e não constituem qualquer conselho de investimento.
  3. A equipa Gate Learn faz traduções do artigo para outras línguas. Copiar, distribuir ou plagiar os artigos traduzidos é proibido, a menos que seja mencionado.

As 6 Soluções Emergentes de Verificação de IA em 2025

Intermediário4/17/2025, 2:03:08 AM
Este artigo explora soluções de ponta no campo da verificabilidade da IA em 2025, com uma análise aprofundada de seis projetos principais: EigenLayer, Hyperbolic, Mira, Atoma, Fortytwo e Lagrange. Estas iniciativas adotam abordagens técnicas diversas - incluindo Prova de Amostragem (PoSP), Ambientes de Execução Confiáveis (TEEs) e Provas de Conhecimento Zero (ZKPs) - para enfrentar o desafio da confiabilidade das saídas da IA. Cada solução oferece vantagens únicas e é adequada para casos de uso específicos, avançando coletivamente o desenvolvimento da infraestrutura de IA descentralizada.

Encaminhar o Título Original 'AI and Verifiability'

À medida que os sistemas de IA se integram cada vez mais com os ecossistemas de blockchain, garantir a verificabilidade das saídas de IA torna-se uma pedra angular para fomentar a confiança, transparência e responsabilidade. Isso é especialmente crítico para as aplicações de finanças descentralizadas (DeFi) e de prova de identidade, onde a precisão e confiabilidade podem influenciar diretamente os resultados financeiros, as decisões de governança e a identidade do usuário.

O Caso da IA Verificável em Sistemas Descentralizados

AI Observabilidade

Garante que os processos de tomada de decisão são transparentes e compreensíveis. As partes interessadas obtêm insights sobre como as conclusões são obtidas—vital quando as decisões influenciam transações on-chain ou governança em grande escala.

Rastreabilidade da Fonte

Regista os dados, parâmetros e arquiteturas de modelos utilizados para gerar previsões de IA. Ao estabelecer a proveniência, os utilizadores sabem de onde vieram os dados de treino e quais modelos foram utilizados, aumentando a confiança e reduzindo a probabilidade de desinformação.

Verificação de Saída

Confirma que as saídas finais de IA são precisas e inalteradas. Num contexto descentralizado, isso envolve frequentemente mecanismos de prova (por exemplo, provas de conhecimento zero, consenso de amostragem) para garantir que os cálculos ou inferências não foram adulterados fora da cadeia.

Desafios na Verificabilidade de IA On-Chain

Embora as blockchains sejam excelentes em fornecer registros imutáveis e confiança distribuída, os cálculos de IA on-chain podem ser proibitivamente caros. Por exemplo, a multiplicação de matrizes para 1000×1000 inteiros pode consumir bilhões de gás — além do limite de gás por bloco atual do Ethereum (Zheng et al., 2021). Consequentemente, a maioria dos projetos de IA depende de computação off-chain com verificação on-chain.

No entanto, as abordagens fora da cadeia introduzem novos desafios:

Potencial Fraude: Sem uma verificação robusta, atores maliciosos podem submeter dados incorretos ou manipulados.

Pontos Fracos Centralizados: Depender de oráculos fora da cadeia ou servidores privados pode minar o ethos descentralizado, levando à censura ou a pontos únicos de falha.

Assim, as soluções emergentes visam manter um alto desempenho ao incorporar verificação criptográfica ou baseada em amostragem, equilibrando eficiência e descentralização.

EigenLayer

EigenLayer é um protocolo de restaking que permite aos validadores do Ethereum "restake" o seu ETH para garantir serviços descentralizados adicionais, conhecidos como Serviços Validados Ativamente (AVS). Em vez de precisar de um novo conjunto de validadores para cada tarefa especializada (por exemplo, validação de IA, operações entre cadeias), EigenLayer reutiliza a rede robusta e descentralizada de validadores do Ethereum.

EigenLayer melhora a segurança ao permitir que novos Serviços Validados Ativamente (AVS) se conectem ao conjunto de validadores existente do Ethereum. Este conjunto de validadores já é grande, bem capitalizado e geograficamente distribuído, oferecendo garantias criptoeconômicas robustas sem a necessidade de inicializar uma nova rede do zero.

Ao permitir o restaking, EigenLayer reduz significativamente os custos operacionais. Os projetos já não precisam de criar e manter os seus próprios ecossistemas de validadores, o que reduz tanto os custos de infraestrutura como as barreiras para lançar novos serviços descentralizados on-chain.

Além disso, o sistema oferece alta flexibilidade. AVS pode personalizar sua própria lógica de consenso e validação, ao mesmo tempo que herda a segurança da camada base da Ethereum, tornando a EigenLayer uma base ideal para aplicações descentralizadas modulares, seguras e escaláveis.

Prova de Amostragem Hiperbólica (PoSP) da Hyperbolic

A Hyperbolic Labs apresenta o Proof of Sampling (PoSP), uma alternativa eficiente e escalável aos zkML tradicionais ou às provas de fraude otimistas para validação de IA. Este novo protocolo de verificação baseado em amostragem garante que os nossos utilizadores possam confiar nos resultados dos seus modelos em treino e execução na nossa rede descentralizada de GPU. Este protocolo, conhecido como Proof of Sampling (PoSP), é o novo padrão de ouro para verificação em IA.

Desenvolvido pela equipa Hyperbolic em colaboração com investigadores da UC Berkeley e da Universidade de Columbia, o PoSP utiliza a teoria dos jogos para garantir a segurança de sistemas descentralizados. Valida uma amostra estratégica de resultados e implementa um processo de arbitragem para nodos desonestos incentivarem comportamentos 100% honestos em toda a rede.

A Prova de Provas Espontâneas (PoSP) oferece várias vantagens-chave: permite uma verificação eficiente, adicionando menos de 1% de sobrecarga computacional, permitindo que os nós mantenham velocidades de operação próximas do nativo. A sua segurança robusta garante que os participantes permaneçam honestos, uma vez que verificações aleatórias tornam a fraude muito arriscada para ser compensadora. Através de incentivos de teoria dos jogos, a PoSP cria um Equilíbrio de Nash de estratégia pura onde o comportamento honesto é sempre a escolha racional. Finalmente, a PoSP é altamente escalável para serviços de IA, capaz de suportar cargas de trabalho de IA descentralizadas em grande escala, garantindo ao mesmo tempo que os processos de computação de alto desempenho e inferência permaneçam verificáveis e confiáveis.

Auditorias aleatórias: Um conjunto rotativo de validadores (através do EigenLayer) amostra e verifica regularmente as computações de IA. Esta verificação contínua evita trapaças sistemáticas.

Incentivos do Equilíbrio de Nash: O comportamento malicioso é economicamente irracional para os validadores — saídas desonestas ou inconsistentes levam a penalidades passíveis de corte.

Alta capacidade de processamento: a menor sobrecarga de desempenho do PoSP torna-o adequado para casos de uso que exigem inferências rápidas e frequentes de IA.

Ao contrário de outras soluções de IA descentralizadas, quando executa inferências na rede descentralizada da Hyperbolic, pode ter a certeza de que está a receber um resultado válido.

Ao integrar o PoSP no EigenLayer, os serviços descentralizados de IA podem alcançar um framework seguro e minimizado em termos de confiança que pode lidar com um número crescente de pedidos de inferência sem sacrificar a descentralização ou a eficiência de custos.

Validação Aleatória: Os validadores são selecionados aleatoriamente para verificar as saídas, garantindo resultados imparciais.

Suporte AVS escalável: PoSP reduz as demandas computacionais, permitindo que a EigenLayer assegure serviços em grande escala de forma eficiente.

Dissuasão de fraude: Penas rigorosas tornam a desonestidade pouco lucrativa, enquanto o comportamento honesto permanece a estratégia ótima.

“O protocolo EigenLayer combinado com o nosso protocolo de Prova de Amostragem transforma fundamentalmente a forma como garantimos serviços descentralizados. Agora oferecemos uma infraestrutura escalável, confiável e resistente a fraudes a uma fração do custo.” - Jasper Zhang, CEO da Hyperbolic


Leia o artigo completo sobre PoSP aqui

Mira

A Mira Network tem como objetivo enfrentar um desafio fundamental na IA, que é a tendência dos grandes modelos de linguagem (LLMs) de gerar informações incorretas. Projetada para reduzir alucinações e maximizar a precisão de saída sem supervisão humana, a Mira aproveita uma rede descentralizada de nós independentes para verificar de forma confiável as saídas de IA em paralelo.

Existem três etapas na arquitetura da Mira

Binarização

O processo de dividir saídas em ‘reivindicações’ mais simples.

Verificação Distribuída

As alegações acima são verificadas por uma rede de nós verificadores que executam modelos especializados para verificar as alegações. A verificação é feita num formato de pergunta de escolha múltipla. As alegações para verificação são distribuídas aleatoriamente entre os verificadores, o que torna difícil a colusão.

Prova de Verificação

Um mecanismo de consenso híbrido que combina Proof-of-Work (PoW) e Proof-of-Stake (PoS) é utilizado. Cada verificador precisa apostar para participar na verificação. Esta abordagem garante que os verificadores estão realmente a realizar inferências, em vez de apenas atestar. A aposta de um verificador será reduzida se for constatado que a sua saída está constantemente a desviar-se do consenso.

Uma vez que o consenso foi alcançado pela rede sobre uma saída, um certificado criptográfico é gerado e escrito no blockchain, criando um registro imutável de fatos verificados.


Origem:Whitepaper da Mira Network

A privacidade é um aspecto chave do design da Mira. Dado que as reivindicações são fragmentadas aleatoriamente, não é possível para um único operador de nó reconstruir a saída original. Além disso, as respostas de verificação dos verificadores independentes são mantidas privadas antes do consenso, prevenindo vazamento de informações.

Mira procura verificar conteúdo cada vez mais complexo, que inclui código, dados estruturados e conteúdo multimédia. No futuro, Mira também irá reconstruir conteúdo inválido quando for detetado, alcançando precisão e rapidez na produção de IA. Eventualmente, a Mira Network será capaz de acumular factos economicamente seguros, criando uma base de dados para verificação de factos.

À medida que o uso da rede cresce - maior geração de taxas - melhores prémios de verificação - atrair mais operadores de nós - precisão, custo e latência melhorados na verificação de respostas

Atoma

Atoma é uma rede de execução de IA descentralizada, privada e verificável, ativa na rede principal Sui. A arquitetura central é composta por três elementos: (a) camada de computação e; (b) camada de verificação e; (c) camada de privacidade.

Camada de Cálculo

Uma rede global de nós de execução que processa pedidos de inferência. Um grande número de nós está disponível ao trabalhar com vários centros de dados e dispositivos periféricos como os dispositivos digitais individuais.

Com o Atoma, os pesos do modelo estão disponíveis localmente nos nós, aumentando a velocidade da inferência quando um pedido é recebido. Além disso, os pedidos recebidos são encaminhados para o nó mais adequado, correspondendo a tarefa com o desempenho e custo correspondentes.

Atoma concentra-se na otimização da eficiência na execução de inferências através de um par de funcionalidades, incluindo FlashAttention e Paged Attention, ambas contribuindo para a redução da sobrecarga computacional.

Camada de Verificação

A integridade da computação é verificada através do consenso de amostragem. Este é um processo em que os nós são selecionados aleatoriamente para executar a inferência e gerar um hash criptográfico da saída. Se todos os hashes gerados pelo conjunto selecionado de nós coincidirem, a saída da inferência é verificada. Caso haja uma discrepância entre os hashes gerados, a rede irá procurar o nó desonesto, que será penalizado através da redução da sua participação.

As probabilidades de um atacante malicioso conseguir controlar metade ou mais da potência da GPU de toda a rede para manipular o sistema são muito baixas e tornam-se ainda mais difíceis à medida que a rede de nós aumenta. O número de nós selecionados para amostragem é flexível, para tarefas com maior participação, um conjunto maior de nós pode ser escolhido.

Camada de privacidade

Atoma enfatiza a segurança e privacidade dos dados do usuário, executando cálculos num Ambiente de Execução Confiável (TEE). Os dados inseridos pelos usuários são criptografados e só são descriptografados no TEE. Isso impede que outras partes na blockchain visualizem os dados do usuário. Uma vez que a inferência é executada, a saída é criptografada antes de ser devolvida aos usuários.

Apesar de ser uma solução segura, vale ressaltar que ela vem com uma compensação em termos de sobrecarga computacional mais alta, o que pode resultar em taxas mais altas para os usuários.

Rede Aizel

Similar ao Atoma Network acima, a Aizel Network opta por uma abordagem baseada em TEE. A diferença aqui é que a Aizel integrou a Computação Multi-Partes (MPC) no seu fluxo de trabalho, onde as tarefas de inferência são encaminhadas para diferentes TEEs. Isso tem como objetivo descentralizar a rede, garantindo que a inferência ainda seja possível mesmo quando um TEE é hackeado ou está inativo.

Quarenta e dois

Fortytwo defende um modelo de “inferência de enxame” construído em torno de Pequenos Modelos Especializados (SLMs). Em vez de depender de uma IA monolítica massiva, a rede orquestra múltiplos modelos executados por contribuidores, cada um ajustado para tarefas ou domínios específicos. Estes modelos trabalham em paralelo—verificando, refinando e cruzando as saídas uns dos outros—para fornecer inferências mais precisas e confiáveis.

Esta estrutura descentralizada enfrenta problemas que os modelos únicos e grandes frequentemente enfrentam, como gargalos na formação, requisitos dispendiosos de hardware e pontos únicos de falha. Ao distribuir a inteligência por numerosos modelos e contribuidores mais pequenos, o Fortytwo garante escalabilidade e tolerância a falhas.

1. Modelos Especializados Pequenos (SLMs)

Inicialização Baseada em Intenção

Antes de iniciar qualquer tarefa, os contribuidores especificam o objetivo, o orçamento e as restrições. Esta abordagem alinha cada SLM com a missão global - seja a de resumir texto, analisar código ou qualquer outra inferência especializada.

Especializações Definidas pelo Colaborador

Os operadores de nós individuais trazem seus próprios modelos ajustados à rede. Eles mantêm o controle total sobre pesos, vieses e dados proprietários, garantindo a privacidade de cada proprietário de modelo. Esses modelos especializados podem focar em áreas como análise de sentimentos, análise de texto jurídico ou até mesmo geração de código específico de domínio.

Privacidade de Pesos & Biases

Um aspecto crítico do Fortytwo é que os contribuidores não precisam compartilhar os detalhes do modelo bruto. Apenas os resultados da inferência são compartilhados com a rede. Este design preserva a propriedade intelectual de cada proprietário do modelo e ajuda a mitigar os riscos associados à exposição de dados sensíveis.

2. Inferência de Enxame & Avaliação de Pares

Colaboração Multi-SLM

As tarefas são divididas entre 7–8 (ou mais) SLMs especializados, cada um fornecendo uma perspetiva de domínio única. Ao dividir tarefas maiores em sub-problemas menores, a rede aproveita de forma mais eficaz as capacidades de cada modelo.

Mistura de Especialistas (MoE) plana

Em vez de empilhar sub-especialistas em várias camadas, o Fortytwo utiliza uma abordagem MoE “plana”, onde cada modelo processa os dados de forma independente. Este design pode ser particularmente eficiente porque evita a complexidade da ativação hierárquica, permitindo que os especialistas se foquem exclusivamente nas suas tarefas secundárias.

Detecção Coletiva de Erros

A avaliação entre pares desempenha um papel fundamental na manutenção da precisão da inferência. Quando os modelos discordam, a rede assinala as discrepâncias para uma análise mais profunda. Este processo de verificação cruzada é crucial para detetar erros precocemente e garantir uma produção de alta qualidade.

3. Baixa Latência & Computação Distribuída

Hardware de nível do consumidor

Fortytwo é otimizado para dispositivos como Apple Silicon e GPUs RTX, diminuindo as barreiras de custo e ampliando a base de potenciais operadores de nós. Esta abordagem democratiza a IA, permitindo que mais indivíduos - e não apenas grandes centros de dados - participem.

Clusters de Implementação

Muitos operadores de nós escolhem plataformas de nuvem (por exemplo, AWS) ou clusters auto-alojados para minimizar a latência. Clusters bem coordenados tornam-se particularmente valiosos em cenários sensíveis ao tempo, onde até pequenos atrasos podem impactar significativamente a experiência do usuário.

4. Comunidade de Operadores de Nó

Participação crescente

Milhares de participantes manifestaram interesse em executar nós de inferência, criando uma rede diversificada e distribuída. Esta expansão traz mais recursos computacionais online, aumentando ainda mais a capacidade e a resiliência.

Contribuições ao Modelo Semelhante à Wikipedia

Semelhante à forma como os editores da Wikipedia colaboram em artigos, cada operador de nó pode aprimorar ou ajustar modelos especializados e partilhar técnicas de inferência melhoradas. Esta manutenção coletiva e refinamento promove a inovação contínua e eleva a inteligência global da rede.

Lagrange

A Lagrange está na vanguarda da utilização da tecnologia de Zero-Knowledge (ZK) para trazer verificabilidade à IA. O seu lema—“O futuro da IA é ZK, e o futuro da humanidade é Lagrange”—sublinha a crença de que, à medida que a IA evolui para a superinteligência, devemos garantir transparência e confiança na forma como estes modelos funcionam.

DeepProve: Alto desempenho zkML

  • Prova do Modelo Correto: DeepProve confirma criptograficamente que o modelo de IA correto foi usado para uma inferência específica, não deixando espaço para manipulação ou falsificação.
  • Prova de Saída Correta: Também garante que a saída esteja alinhada com o que o modelo produziria genuinamente, impedindo que atores maliciosos injetem resultados falsos.
  • Melhorias de desempenho: Apresenta uma geração de prova 158 vezes mais rápida e uma verificação 671 vezes mais rápida do que muitas soluções zkML existentes, tornando viável a implementação em grande escala.

Ao remover interações de IA de “caixa preta”, Lagrange garante que os usuários não precisam confiar cegamente na IA. Em ambientes descentralizados onde a minimização da confiança é primordial, a certeza criptográfica sobre a integridade do modelo e a correção da saída se torna essencial.

Além disso, a Inference Labs opera como o braço focado em aplicações da Lagrange, fazendo a ponte entre a pesquisa e as implementações práticas. Enquanto a Lagrange se concentra no design criptográfico e de circuitos centrais, a Inference Labs garante que essas inovações estejam prontas para produção.

Integrações do Mundo Real

Incorpora o zkML em pipelines de machine learning existentes, com foco em setores como DeFi, jogos, saúde e origem da cadeia de abastecimento.

Parceiros com líderes da indústria para testar as novas funcionalidades de Lagrange sob restrições do mundo real (por exemplo, contagens de parâmetros grandes, requisitos rígidos de latência).

EZKL

EZKL é um sistema de código aberto para criar IA e análises verificáveis usando provas de conhecimento zero (ZKPs). Permite aos desenvolvedores provar que os modelos de IA foram executados corretamente sem revelar dados sensíveis ou detalhes do modelo proprietários. Inspirado em sistemas como o Face ID da Apple, o EZKL estende a segurança do modelo intransponível a qualquer modelo em qualquer dispositivo, sem depender de hardware especializado como TEEs.

Infraestrutura de Prova de Conhecimento Zero

EZKL automatiza todo o ciclo de vida de ZKP - desde a compilação do modelo até a geração e verificação da prova. Os utilizadores fornecem modelos de IA em formato ONNX, que o EZKL compila em circuitos ZK-friendly usando uma versão otimizada do sistema de prova Halo2. O sistema gera então provas criptográficas de execução correta do modelo que podem ser verificadas em qualquer dispositivo.

Este processo criptográfico permite confiança descentralizada em aplicações de IA de alto risco, como tomada de decisões financeiras, autenticação biométrica e validação de inferência em tempo real.

SNARKs colaborativos (Cosnarks)

A EZKL introduziu recentemente SNARKs Colaborativos (cosnarks), permitindo que duas partes - como um proprietário de modelo e um proprietário de dados - gerem em conjunto uma prova ZK sem que nenhuma das partes revele seus ativos confidenciais. Ao contrário dos sistemas de prova MPC delegados, os cosnarks eliminam pressupostos de confiança adicionais limitando a computação apenas às partes envolvidas.

Este avanço permite casos de uso como a pontuação de crédito privada, estratégias de negociação confidenciais e verificação de identidade de conhecimento zero. A implementação alavanca a biblioteca MPC otimizada 2PC da Renegade e é integrada diretamente no Lilith, camada de orquestração em nuvem da EZKL.

Suporte de Modelo e Flexibilidade

O EZKL suporta uma ampla gama de arquiteturas de IA/AM, incluindo CNNs, RNNs, transformadores no estilo GPT, árvores de decisão e modelos de difusão estáveis. Qualquer modelo compatível com o padrão ONNX pode ser convertido em um circuito ZK.

Ao abstrair a lógica do modelo em circuitos matemáticos, o EZKL permite inferência preservadora de privacidade em setores como finanças, saúde e identidade. A lógica baseada em árvore, mecanismos de atenção e operações de matriz em grande escala são todos suportados dentro do framework suportado pelo Halo2.

Experiência do programador

EZKL prioriza a acessibilidade e a abstração da complexidade. Os desenvolvedores não precisam de conhecimento criptográfico prévio, experiência em design de circuitos ou habilidades avançadas de DevOps. O sistema oferece ligações em CLI, Python, JavaScript e Rust, tornando fácil incorporar fluxos de trabalho ZK em pipelines de ML existentes.

Geração automática de restrições, comandos de prova simplificados e integração perfeita com ferramentas de orquestração permitem que os desenvolvedores se concentrem exclusivamente na lógica da aplicação.

Protocolo ORA

ORA é um protocolo de oráculo agnóstico em relação às cadeias que liga a IA e a blockchain, permitindo aos programadores construir aplicações totalmente descentralizadas e sem confiança, alimentadas por aprendizagem automática verificável. Através da sua infraestrutura, a ORA traz inferência de IA, geração de conteúdo e cálculos complexos diretamente on-chain, eliminando a dependência de APIs off-chain ou cálculos centralizados. A sua inovação central reside na combinação da execução de IA com provas criptográficas, criando pipelines de IA programáveis com verificabilidade incorporada.

O protocolo permite a qualquer programador construir aplicações onde as saídas de IA - seja uma resposta de modelo de linguagem, uma imagem gerada, ou uma declaração verificada de factos - possam ser incorporadas em contratos inteligentes com garantias de auditabilidade e correção.

Oráculo de IA Onchain (OAO)

O Oráculo de IA Onchain (OAO) é o produto principal da ORA. Permite que contratos inteligentes solicitem, recebam e ajam com base nos resultados das inferências de IA executadas offchain, mas verificadas e resolvidas onchain. Os desenvolvedores podem chamar um trabalho de inferência de IA através da rede opML da ORA. O resultado é retornado através de uma função de retorno de chamada no contrato do usuário, tornando as aplicações onchain nativas de IA e totalmente autônomas.

O OAO suporta vários modelos grandes, como LLaMA3, Stable Diffusion, OpenLM Chat/Score, em execução através de uma infraestrutura verificável. Os desenvolvedores podem integrar o OAO em qualquer cadeia compatível com EVM, e contratos inteligentes pré-construídos como o Prompt e o SimplePrompt permitem prototipagem rápida com otimização de gás em mente.

opML e Fluxo de Verificação

O sistema de aprendizagem de máquina otimista (opML) da ORA alimenta a sua camada de verificabilidade. Quando um trabalho de inferência é iniciado, o resultado é publicado on-chain com um período de desafio. Durante este tempo, os validadores de opML podem verificar o resultado e, se estiver incorreto, apresentar uma prova de fraude. O resultado correto substitui o desafiado. Isto garante que as saídas de IA incorporadas em contratos inteligentes são verificáveis, resistentes à censura e economicamente seguras.

Esta abordagem otimista equilibra o desempenho e a descentralização. Ao contrário do zkML, que pode exigir uma computação pesada antecipadamente, o opML torna economicamente irracional o sucesso de comportamentos desonestos, especialmente à medida que a rede de validadores aumenta.

Integração do Desenvolvedor

Os desenvolvedores interagem com a OAO através de uma interface modular bem documentada. Para integrar a IA num contrato inteligente, um desenvolvedor herda AIOracleCallbackReceiver e implementa a função aiOracleCallback() para receber resultados. Eles podem então chamar o oráculo para iniciar inferências usando IDs de modelo, dados de entrada e um endereço de retorno de chamada.

Atualmente, quatro modelos estão implementados no Arbitrum, e a integração pode ser tão simples como usar os modelos Prompt da ORA. A infraestrutura também suporta casos de uso mais avançados através da sua orquestração de computação alimentada por Lilith, permitindo inferências mais rápidas e cargas de trabalho de alto rendimento.

Oferta de Modelo Inicial (IMO)

ORA criou o quadro de Oferta de Modelo Inicial (IMO) para descentralizar a propriedade, receita e governança de modelos de IA. Os IMOs tokenizam modelos de IA através de uma estrutura de duplo token:

  • ERC-7007: Ancora saídas geradas por IA verificáveis (por exemplo, imagens, previsões) diretamente na cadeia.
  • ERC-7641: Distribui receitas provenientes da utilização do modelo para detentores de tokens, criando sistemas de IA governados pela comunidade alinhados com incentivos.

Ao permitir a governação e monetização baseada em tokens, os IMOs financiam o desenvolvimento de código aberto, garantindo que a infraestrutura de IA permaneça resistente à censura, globalmente acessível e coletivamente detida.

Conclusão

À medida que o vertical de IA continua a crescer, a necessidade de saídas de IA verificáveis torna-se cada vez mais crítica. Evidente a partir do acima, existem abordagens diversas para garantir a confiança em soluções de IA descentralizadas, incluindo ambientes de execução confiáveis (TEEs), Prova de Amostragem (PoSP), Aprendizagem de Máquina de Conhecimento Zero (ZKML) e Aprendizagem de Máquina Otimista (OPML).

As abordagens diferem em vários aspectos, nomeadamente o custo, o tempo decorrido e o nível de garantias de segurança. É provável que todas as soluções acima mencionadas sejam utilizadas de alguma forma, dependendo dos casos de uso específicos.

Aviso legal:

  1. Este artigo foi reeditado a partir de [GateHiperbólico - e / accEncaminhar o Título Original 'AI and Verifiability'. Todos os direitos de autor pertencem ao autor originalHiperbólico - e/acc]. Se houver objeções a esta reimpressão, entre em contato com o Gate Learnequipa e eles vão lidar com isso prontamente.
  2. Aviso de responsabilidade: As opiniões expressas neste artigo são exclusivamente as do autor e não constituem qualquer conselho de investimento.
  3. A equipa Gate Learn faz traduções do artigo para outras línguas. Copiar, distribuir ou plagiar os artigos traduzidos é proibido, a menos que seja mencionado.
今すぐ始める
登録して、
$100
のボーナスを獲得しよう!