De Verifiable AI para Composable AI - Reflexões sobre Cenários de Aplicação ZKML

intermediário12/17/2023, 5:56:24 PM
Este artigo reexamina soluções de IA verificáveis de uma perspectiva de aplicação, e analisa em quais cenários elas são necessárias imediatamente e em quais cenários a demanda é relativamente fraca. Por fim, foi discutido o modelo de ecossistema de IA baseado na cadeia pública e foram propostos dois modelos de desenvolvimento diferentes, horizontal e vertical.
  1. Se a IA verificável é necessária depende de: se os dados on-chain são modificados e se a justiça e a privacidade estão envolvidas

    1. Quando a IA não afeta o status on-chain, a IA pode atuar como um conselheiro. As pessoas podem julgar a qualidade dos serviços de IA através dos resultados reais sem verificar o processo de cálculo.
    2. Quando o estado on-chain é afetado, se o serviço tem como alvo indivíduos e não afeta a privacidade, então os usuários ainda podem julgar diretamente a qualidade dos serviços de IA sem verificar o processo de cálculo.
    3. Quando a saída de IA afeta a equidade e a privacidade pessoal entre muitas pessoas, como usar a IA para avaliar e distribuir recompensas aos membros da comunidade, usar a IA para otimizar o AMM, ou envolver dados biológicos, as pessoas vão querer revisar os cálculos de IA. Aqui é onde pode ser verificado que a IA pode encontrar o PMF.
  2. Ecossistema de aplicativos de IA vertical: Como um dos extremos da IA verificável é um contrato inteligente, aplicativos de IA verificáveis e até mesmo aplicativos de IA e dapps nativos podem ser capazes de se utilizar mutuamente sem confiança. Este é um potencial ecossistema de aplicativos de IA componíveis

  3. Ecossistema de aplicação de IA horizontal: O sistema de cadeia pública pode lidar com questões como pagamento de serviço, coordenação de disputas de pagamento e combinação das necessidades do usuário e do conteúdo do serviço para fornecedores de serviços de IA, para que os usuários possam desfrutar de uma experiência de serviço de IA descentralizada com um grau maior de liberdade.

1. Visão geral da Modulus Labs e Histórias de Aplicação

1.1 Introdução e soluções principais

Modulus Labs é uma empresa de IA “on-chain” que acredita que a IA pode melhorar significativamente as capacidades dos contratos inteligentes e tornar as aplicações web3 mais poderosas. No entanto, há uma contradição quando a IA é aplicada ao web3, ou seja, a IA requer uma grande quantidade de potência de computação para operar, e a IA é uma caixa preta para computação off-chain. Isso não atende aos requisitos básicos do web3 de ser sem confiança e verificável.

Portanto, a Modulus Labs baseou-se no esquema zk rollup [pré-processamento off-chain + verificação on-chain] e propôs uma arquitetura que pode verificar a IA. Especificamente, o modelo de ML é executado off-chain e, além disso, é gerado um zkp para o processo de cálculo de ML off-chain. Através deste zkp, a arquitetura, pesos e entradas (inputs) do modelo off-chain podem ser verificados. Claro, este zkp também pode ser postado na chain para verificação por contratos inteligentes. Neste ponto, a IA e os contratos on-chain podem interagir com mais confiança, ou seja, a “IA on-chain” foi realizada.

Com base na ideia de IA verificável, a Modulus Labs lançou até agora três aplicativos de "IA on-chain" e também propôs muitos cenários de aplicação possíveis.

1.2 Casos de aplicação

  1. O primeiro a ser lançado foi Rocky Bot, uma IA de negociação automatizada. Rocky foi treinado com dados históricos do par de negociação Weth/USDC. Ele julga as tendências futuras do weth com base nos dados históricos. Após tomar uma decisão de negociação, ele gerará um zkp para o processo de decisão (processo de cálculo) e enviará uma mensagem para L1 para acionar a transação.
  2. O segundo é o jogo de xadrez on-chain 'Leela vs. the World'. Ambos os jogadores no jogo são IA e humanos, e a situação do jogo está em um contrato. O jogador opera através de uma carteira (interage com contratos). No entanto, a IA lê a nova situação do jogo de xadrez, faz um julgamento e gera zkp para todo o processo de cálculo. Ambas as etapas são concluídas na nuvem AWS, e zkp é verificado por um contrato on-chain. Após a verificação bem-sucedida, o contrato do jogo é usado para 'jogar xadrez'.
  3. O terceiro é um artista de IA "on-chain" e lançou a série NFT zKMon. O núcleo é que a IA gera NFTs e os publica na cadeia, e também gera um zkp. Os usuários podem verificar se seu NFT foi gerado a partir do modelo de IA correspondente por meio do zkp.

Além disso, Modulus Labs mencionou alguns outros casos de uso:

  1. Use IA para avaliar dados pessoais on-chain e outras informações, gerar classificações de reputação pessoal e publicar zkp para verificação do usuário;
  2. Use IA para otimizar o desempenho do AMM e publicar zkp para os usuários verificarem;
  3. Usar IA verificável para ajudar projetos de privacidade a lidar com a pressão regulatória, mas ao mesmo tempo não expor a privacidade (talvez usando ML para provar que esta transação não é lavagem de dinheiro, sem divulgar informações como endereços de usuário);
  4. Oráculos de IA e liberação de zkp para que todos possam verificar a confiabilidade dos dados off-chain;
  5. Na competição de modelos de IA, os participantes enviam sua própria arquitetura e pesos, em seguida, executam o modelo com entrada de teste unificada para gerar zkp para computação, e o contrato final envia automaticamente o prêmio em dinheiro para o vencedor;
  6. Worldcoin disse que, no futuro, os usuários poderão baixar um modelo de íris para gerar o código correspondente no dispositivo local, executar o modelo localmente e gerar zkp. Dessa forma, o contrato on-chain pode usar zkp para verificar que o código de íris do usuário é gerado a partir do modelo correto e da íris razoável, enquanto as informações biológicas não saem do dispositivo do usuário;

Crédito da foto: Modulus Labs

1.3 Discutir diferentes cenários de aplicação com base na necessidade de IA verificável

1.3.1 Cenários que podem verificar que a IA talvez não seja necessária

No cenário do bot Rocky, os usuários podem não ser obrigados a verificar o processo de cálculo de ML. Primeiro, os usuários não têm experiência e não têm capacidade para fazer uma verificação real. Mesmo que haja uma ferramenta de verificação, na opinião do usuário, “Eu aperto um botão, a interface aparece para me dizer que este serviço de IA foi realmente gerado por um certo modelo”, e a autenticidade não pode ser determinada. Em segundo lugar, os usuários não precisam verificar, porque eles se importam se o rendimento da IA é alto. Os usuários migram quando a rentabilidade é baixa, e sempre escolhem o modelo que funciona melhor. Em resumo, quando o resultado final da IA é o que o usuário está procurando, o processo de verificação pode não ser significativo, porque o usuário só precisa migrar para o serviço que funciona melhor.

Uma possível solução é que a IA atue apenas como conselheira, e o usuário execute a transação de forma independente. Quando as pessoas inserem seus objetivos de negociação na IA, a IA calcula e retorna um caminho de transação/movimento de negociação off-chain melhor, e o usuário escolhe se o executa. As pessoas também não precisam verificar o modelo por trás disso; elas só precisam escolher o produto com o maior retorno.

Outra situação perigosa, mas altamente provável, é que as pessoas não se importam com seu controle sobre os ativos ou o processo de cálculo de IA. Quando um robô que ganha dinheiro automaticamente aparece, as pessoas até estão dispostas a hospedar dinheiro diretamente nele, assim como colocar tokens em CEX ou bancos tradicionais para gerenciamento financeiro. Porque as pessoas não se importam com os princípios por trás disso; elas só se importam com quanto dinheiro recebem no final, ou até mesmo quanto dinheiro a parte do projeto mostra que ganharam, este tipo de serviço pode ser capaz de adquirir rapidamente um grande número de usuários, e até iterar mais rapidamente do que os produtos do lado do projeto que usam IA verificável.

Dando um passo para trás, se a IA não participa de mudanças de estado on-chain, mas simplesmente raspa dados on-chain e os pré-processa para os usuários, então não há necessidade de gerar ZKP para o processo de cálculo. Aqui estão alguns exemplos deste tipo de aplicação como um “serviço de dados”:

  1. A caixa de bate-papo fornecida pela Mest é um serviço de dados típico. Os usuários podem usar perguntas e respostas para entender seus dados on-chain, como perguntar quanto dinheiro eles gastaram em NFT;
  2. ChaingPT é um assistente de IA multifuncional que pode interpretar contratos inteligentes para você antes de negociar, dizer se você está negociando com o pool certo ou se a transação provavelmente será capturada ou retirada. ChaingPT também está se preparando para fazer recomendações de notícias de IA, inserir sugestões para gerar automaticamente imagens e postá-las como NFTs e outros serviços;
  3. RSS3 fornece AIOP, para que os usuários possam selecionar os dados on-chain que desejam e fazer certo pré-processamento, de modo que seja fácil treinar a IA com dados específicos on-chain;
  4. DeVillama e RSS3 também desenvolveram plug-ins do ChatGPT, onde os usuários podem obter dados on-chain através de conversas;

1.3.2 Cenários que exigem IA verificável

Este artigo argumenta que os cenários envolvendo várias pessoas, envolvendo justiça e privacidade, requerem ZKP para fornecer verificação, e várias das aplicações mencionadas pela Modulus Labs são discutidas aqui:

  1. Quando uma comunidade recompensa indivíduos com base em reputações pessoais geradas por IA, os membros da comunidade inevitavelmente solicitarão uma revisão do processo de decisão de avaliação, que é o processo de cálculo de ML;
  2. Cenários de otimização de IA para AMM envolvem a distribuição de benefícios entre várias pessoas, e o processo de cálculo de IA também precisa ser verificado regularmente;
  3. Ao equilibrar privacidade e regulação, ZK é atualmente uma das melhores soluções. Se o provedor de serviços utiliza ML no serviço para processar dados privados, precisa gerar ZKP para todo o processo de cálculo;
  4. Uma vez que os oráculos têm uma ampla gama de influência, se controlados pela IA, ZKP precisa ser gerado regularmente para verificar se a IA está funcionando corretamente;
  5. Na competição, o público e outros participantes devem verificar se a computação da ML está em conformidade com as especificações da competição;
  6. Entre os potenciais casos de uso da Worldcoin, a proteção de dados biológicos pessoais também é uma forte exigência;

De maneira geral, quando a IA se assemelha a um tomador de decisões, e sua saída tem uma ampla gama de influência e envolve a equidade de várias partes, então as pessoas exigirão uma revisão do processo de tomada de decisão, ou simplesmente garantir que não haja problemas graves com o processo de tomada de decisão da IA e proteger a privacidade pessoal é uma exigência muito imediata.

Portanto, "se a saída da IA modifica o status on-chain" e "se afeta a justiça/privacidade" são dois critérios para julgar se uma solução de IA verificável é necessária

  1. Quando a saída do IA não modifica o estado on-chain, o serviço de IA pode atuar como um recomendador. As pessoas podem julgar a qualidade do serviço de IA através do efeito de recomendação sem verificar o processo de cálculo;
  2. Quando a saída de IA modifica o status on-chain, se os alvos de serviço forem apenas indivíduos e não afetarem a privacidade, então os usuários ainda podem julgar diretamente a qualidade do serviço de IA sem verificar o processo de cálculo;
  3. Quando a saída de IA afeta diretamente a equidade entre muitas pessoas e a IA modifica automaticamente os dados on-chain, a comunidade e o público precisam testar o processo de tomada de decisão da IA;
  4. Quando os dados processados pela ML envolvem privacidade pessoal, zk também é necessário para proteger a privacidade e, assim, atender aos requisitos regulatórios.

Crédito da Foto: Kernel Ventures

2. Dois modelos de ecossistema de IA baseados em cadeia pública

Em qualquer caso, a solução da Modulus Labs é altamente instrutiva sobre como a IA pode combinar criptografia e trazer valor prático de aplicação. No entanto, o sistema de cadeia pública não apenas aprimora as capacidades dos serviços individuais de IA, mas também tem o potencial de construir um novo ecossistema de aplicativos de IA. Este novo ecossistema trouxe uma relação diferente entre os serviços de IA do que o Web2, a relação entre os serviços de IA e os usuários, e até mesmo a forma como os elos a montante e a jusante colaboram. Podemos resumir os modelos potenciais de ecossistema de aplicativos de IA em dois tipos: modo vertical e modelo horizontal.

2.1 Modo Vertical: Concentre-se em alcançar a composição entre AIs

O caso de uso de xadrez em cadeia “Leela vs. the World” tem um lugar especial. As pessoas podem fazer apostas em humanos ou IA, e os tokens são distribuídos automaticamente após o fim do jogo. Neste ponto, o significado de zkp não é apenas para os usuários verificarem os cálculos da IA, mas também como uma garantia de confiança para desencadear transições de estado em cadeia. Com a garantia de confiança, pode haver também uma composabilidade ao nível do dapp entre os serviços de IA e entre a IA e os dapps nativos de criptomoeda.

Fonte da imagem: Kernel Ventures, com referência da Modulus Labs

A unidade básica de AI combinável é [modelo ML off-chain - geração zkp - contrato de verificação on-chain - contrato principal]. Esta unidade baseia-se no framework “Leela vs. the World”, mas a arquitetura real de um único dapp de AI pode não ser a mesma que a mostrada na imagem acima. Primeiro, a situação do jogo de xadrez em xadrez requer um contrato, mas na realidade, a AI pode não precisar de um contrato on-chain. No entanto, no que diz respeito à arquitetura de AI combinável, se o negócio principal for registrado através de contratos, pode ser mais conveniente para outros dapps combiná-lo. Em segundo lugar, o contrato principal não necessariamente precisa afetar o modelo ML do próprio dapp de AI, porque um dapp de AI pode ter um efeito unidirecional. Depois que o modelo ML é processado, é suficiente acionar um contrato relacionado ao seu próprio negócio, e o contrato será chamado por outros dapps.

Extensivamente, chamadas entre contratos são chamadas entre diferentes aplicações web3. São chamadas para identidade pessoal, ativos, serviços financeiros e até informações sociais. Podemos imaginar uma combinação específica de aplicações de IA:

  1. Worldcoin usa ML para gerar códigos de íris e zkp para dados pessoais de íris;
  2. O aplicativo de IA de pontuação de reputação primeiro verifica se a pessoa por trás deste DID é uma pessoa real (com dados da íris na parte de trás), e então aloca NFTs aos usuários com base na reputação on-chain;
  3. O serviço de empréstimo ajusta a participação do empréstimo de acordo com o NFT possuído pelo usuário;

A interação entre a IA no framework da cadeia pública não é algo que não tenha sido discutido. Loaf, um contribuinte para o ecossistema Realms de jogos de cadeia completa, propôs que os NPCs de IA possam negociar entre si como jogadores, para que todo o sistema econômico possa se otimizar e operar automaticamente. A AI Arena desenvolveu um jogo de batalha automatizado de IA. Os usuários primeiro compram um NFT. Um NFT representa um robô de batalha, e um modelo de IA está por trás dele. Os usuários primeiro jogam jogos por conta própria, depois passam os dados para a IA para aprendizado simulado. Quando os usuários sentem que a IA está forte o suficiente, eles podem jogar automaticamente contra outras AIs na arena. A Modulus Labs mencionou que a AI Arena quer transformar toda essa IA em IA verificável. Ambos os casos viram a possibilidade de a IA interagir entre si e modificar diretamente os dados on-chain conforme interagiam.

No entanto, ainda há muitas questões a serem discutidas na implementação específica da IA combinável, como diferentes dapps podem usar zkp uns dos outros ou verificar contratos. No entanto, também existem muitos excelentes projetos no campo zk. Por exemplo, RISC Zero fez muito progresso na realização de cálculos complexos off-chain e liberando zkp para a chain. Talvez um dia seja possível reunir uma solução apropriada.

2.2 Modelo horizontal: plataformas de serviços de IA que se concentram na descentralização

Nesse sentido, apresentamos principalmente uma plataforma de IA descentralizada chamada SAKSHI, que foi proposta em conjunto por pessoas da Universidade de Princeton, da Universidade Tsinghua, da Universidade de Illinois em Urbana-Champaign, da Universidade de Ciência e Tecnologia de Hong Kong, Witness Chain e Eigen Layer. Seu objetivo principal é permitir que os usuários acessem serviços de IA de maneira mais descentralizada, tornando todo o processo mais confiável e automatizado.

Crédito da foto: SAKSHI

A estrutura da SAKSHI pode ser dividida em seis camadas: camada de serviço (camada de serviço), camada de controle (camada de controle), camada de transação (camada de tradução), camada de prova (camada de prova), camada econômica (camada econômica) e camada de mercado (Marketplace)

O mercado é o nível mais próximo do usuário. Existem agregadores no mercado para fornecer serviços aos usuários em nome de diferentes provedores de IA. Os usuários realizam pedidos por meio de agregadores e chegam a acordos com os agregadores sobre qualidade de serviço e preços de pagamento (os acordos são chamados de SLA - acordos de nível de serviço).

A seguir, a camada de serviço fornece uma API para o lado do cliente, então o cliente faz uma solicitação de inferência de ML para o agregador, e a solicitação é enviada a um servidor usado para combinar o provedor de serviços de IA (a rota usada para transmitir a solicitação faz parte da camada de controle). Portanto, a camada de serviço e a camada de controle são semelhantes a um serviço com vários servidores web2, mas os servidores diferentes são operados por entidades diferentes, e cada servidor é vinculado por meio de um SLA (acordo de serviço previamente assinado) e um agregador.

SLAs são implantados na cadeia na forma de contratos inteligentes, todos os quais pertencem à camada de transação (nota: nesta solução, eles são implantados na Witness Chain). A camada de transação também registra o status atual de um pedido de serviço e é usada para coordenar usuários, agregadores e provedores de serviços para lidar com disputas de pagamento.

Para que a camada de transação tenha evidências para se apoiar ao lidar com disputas, a camada de prova (Camada de Prova) verificará se o provedor de serviços utiliza o modelo conforme acordado no SLA. No entanto, SAKSHI não optou por gerar zkp para o processo de cálculo de ML, mas em vez disso, utilizou a ideia de prova otimista, esperando estabelecer uma rede de nós desafiantes para testar o serviço. Os incentivos de nó são suportados pela Witness Chain.

Embora a SLA e a rede de nós desafiadores estejam na cadeia de testemunhas, no plano da SAKSHI, a cadeia de testemunhas não pretende usar seus incentivos de token nativo para alcançar segurança independente, mas sim usa a segurança do Ethereum através da Eigen Layer, então toda a economia na verdade depende da Eigen Layer.

Como pode ser visto, SAKSHI está entre os provedores de serviços de IA e os usuários, e organiza diferentes IAs de forma descentralizada para fornecer serviços aos usuários. Isso se parece mais com uma solução horizontal. O cerne do SAKSHI é permitir que os provedores de serviços de IA se concentrem mais em gerenciar seus próprios cálculos de modelos off-chain, correspondendo às necessidades dos usuários com serviços de modelo, pagamento dos serviços e verificação da qualidade do serviço por meio de acordos on-chain, e tentando resolver automaticamente disputas de pagamento. Claro, no momento, o SAKSHI ainda está na fase teórica e há também muitos detalhes de implementação que valem a pena determinar.

3. Perspectivas futuras

Seja AI combinável ou plataformas de AI descentralizadas, o modelo de ecossistema de AI baseado na cadeia pública parece ter algo em comum. Por exemplo, os provedores de serviços de AI não se conectam diretamente com os usuários; eles só precisam fornecer modelos de ML e realizar cálculos off-chain. Pagamentos, resolução de disputas e coordenação entre as necessidades do usuário e os serviços podem ser resolvidos por meio de acordos descentralizados. Como uma infraestrutura sem confiança, a cadeia pública reduz o atrito entre provedores de serviços e usuários, e os usuários também têm maior autonomia neste momento.

Embora as vantagens de usar a cadeia pública como uma base de aplicação sejam clichês, é verdade que isso também se aplica aos serviços de IA. No entanto, a diferença entre os aplicativos de IA e os aplicativos dapp existentes é que os aplicativos de IA não podem colocar toda a computação na cadeia, portanto, é necessário usar zk ou prova otimista para conectar os serviços de IA ao sistema da cadeia pública de maneira mais confiável.

Com a implementação de uma série de soluções de otimização da experiência, como a abstração de contas, os usuários podem não ser capazes de perceber a existência de mnemônicos, cadeias e gás. Isso aproxima o ecossistema de cadeias públicas do web2 em termos de experiência, enquanto os usuários podem obter um grau maior de liberdade e composabilidade do que os serviços web2. Isso será muito atraente para os usuários. O ecossistema de aplicativos de IA baseado na cadeia pública vale a pena esperar.


Kernel Ventures é um fundo de capital de risco de criptomoeda impulsionado por uma comunidade de pesquisa e desenvolvimento com mais de 70 investimentos em estágio inicial, focando em infraestrutura, middleware, dApps, especialmente ZK, Rollup, DEX, blockchains modulares e verticais que hospedarão os próximos bilhões de usuários de criptomoedas, como abstração de contas, disponibilidade de dados, escalabilidade, etc. Nos últimos sete anos, temos nos comprometido a apoiar o desenvolvimento de comunidades de desenvolvimento de núcleo e associações universitárias de blockchain ao redor do mundo.

Aviso Legal:

  1. Este artigo é reproduzido a partir de[espelho]. Todos os direitos autorais pertencem ao autor original [Kernel Ventures Jerry Luo]. Se houver objeções a essa reimpressão, entre em contato com a equipe Gate Learn(gatelearn@gate.io), e eles lidarão com isso prontamente.
  2. Responsabilidade de Isenção: As visões e opiniões expressas neste artigo são exclusivamente do autor e não constituem nenhum conselho de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipe Gate Learn. Salvo indicação em contrário, copiar, distribuir ou plagiar os artigos traduzidos é proibido.

De Verifiable AI para Composable AI - Reflexões sobre Cenários de Aplicação ZKML

intermediário12/17/2023, 5:56:24 PM
Este artigo reexamina soluções de IA verificáveis de uma perspectiva de aplicação, e analisa em quais cenários elas são necessárias imediatamente e em quais cenários a demanda é relativamente fraca. Por fim, foi discutido o modelo de ecossistema de IA baseado na cadeia pública e foram propostos dois modelos de desenvolvimento diferentes, horizontal e vertical.
  1. Se a IA verificável é necessária depende de: se os dados on-chain são modificados e se a justiça e a privacidade estão envolvidas

    1. Quando a IA não afeta o status on-chain, a IA pode atuar como um conselheiro. As pessoas podem julgar a qualidade dos serviços de IA através dos resultados reais sem verificar o processo de cálculo.
    2. Quando o estado on-chain é afetado, se o serviço tem como alvo indivíduos e não afeta a privacidade, então os usuários ainda podem julgar diretamente a qualidade dos serviços de IA sem verificar o processo de cálculo.
    3. Quando a saída de IA afeta a equidade e a privacidade pessoal entre muitas pessoas, como usar a IA para avaliar e distribuir recompensas aos membros da comunidade, usar a IA para otimizar o AMM, ou envolver dados biológicos, as pessoas vão querer revisar os cálculos de IA. Aqui é onde pode ser verificado que a IA pode encontrar o PMF.
  2. Ecossistema de aplicativos de IA vertical: Como um dos extremos da IA verificável é um contrato inteligente, aplicativos de IA verificáveis e até mesmo aplicativos de IA e dapps nativos podem ser capazes de se utilizar mutuamente sem confiança. Este é um potencial ecossistema de aplicativos de IA componíveis

  3. Ecossistema de aplicação de IA horizontal: O sistema de cadeia pública pode lidar com questões como pagamento de serviço, coordenação de disputas de pagamento e combinação das necessidades do usuário e do conteúdo do serviço para fornecedores de serviços de IA, para que os usuários possam desfrutar de uma experiência de serviço de IA descentralizada com um grau maior de liberdade.

1. Visão geral da Modulus Labs e Histórias de Aplicação

1.1 Introdução e soluções principais

Modulus Labs é uma empresa de IA “on-chain” que acredita que a IA pode melhorar significativamente as capacidades dos contratos inteligentes e tornar as aplicações web3 mais poderosas. No entanto, há uma contradição quando a IA é aplicada ao web3, ou seja, a IA requer uma grande quantidade de potência de computação para operar, e a IA é uma caixa preta para computação off-chain. Isso não atende aos requisitos básicos do web3 de ser sem confiança e verificável.

Portanto, a Modulus Labs baseou-se no esquema zk rollup [pré-processamento off-chain + verificação on-chain] e propôs uma arquitetura que pode verificar a IA. Especificamente, o modelo de ML é executado off-chain e, além disso, é gerado um zkp para o processo de cálculo de ML off-chain. Através deste zkp, a arquitetura, pesos e entradas (inputs) do modelo off-chain podem ser verificados. Claro, este zkp também pode ser postado na chain para verificação por contratos inteligentes. Neste ponto, a IA e os contratos on-chain podem interagir com mais confiança, ou seja, a “IA on-chain” foi realizada.

Com base na ideia de IA verificável, a Modulus Labs lançou até agora três aplicativos de "IA on-chain" e também propôs muitos cenários de aplicação possíveis.

1.2 Casos de aplicação

  1. O primeiro a ser lançado foi Rocky Bot, uma IA de negociação automatizada. Rocky foi treinado com dados históricos do par de negociação Weth/USDC. Ele julga as tendências futuras do weth com base nos dados históricos. Após tomar uma decisão de negociação, ele gerará um zkp para o processo de decisão (processo de cálculo) e enviará uma mensagem para L1 para acionar a transação.
  2. O segundo é o jogo de xadrez on-chain 'Leela vs. the World'. Ambos os jogadores no jogo são IA e humanos, e a situação do jogo está em um contrato. O jogador opera através de uma carteira (interage com contratos). No entanto, a IA lê a nova situação do jogo de xadrez, faz um julgamento e gera zkp para todo o processo de cálculo. Ambas as etapas são concluídas na nuvem AWS, e zkp é verificado por um contrato on-chain. Após a verificação bem-sucedida, o contrato do jogo é usado para 'jogar xadrez'.
  3. O terceiro é um artista de IA "on-chain" e lançou a série NFT zKMon. O núcleo é que a IA gera NFTs e os publica na cadeia, e também gera um zkp. Os usuários podem verificar se seu NFT foi gerado a partir do modelo de IA correspondente por meio do zkp.

Além disso, Modulus Labs mencionou alguns outros casos de uso:

  1. Use IA para avaliar dados pessoais on-chain e outras informações, gerar classificações de reputação pessoal e publicar zkp para verificação do usuário;
  2. Use IA para otimizar o desempenho do AMM e publicar zkp para os usuários verificarem;
  3. Usar IA verificável para ajudar projetos de privacidade a lidar com a pressão regulatória, mas ao mesmo tempo não expor a privacidade (talvez usando ML para provar que esta transação não é lavagem de dinheiro, sem divulgar informações como endereços de usuário);
  4. Oráculos de IA e liberação de zkp para que todos possam verificar a confiabilidade dos dados off-chain;
  5. Na competição de modelos de IA, os participantes enviam sua própria arquitetura e pesos, em seguida, executam o modelo com entrada de teste unificada para gerar zkp para computação, e o contrato final envia automaticamente o prêmio em dinheiro para o vencedor;
  6. Worldcoin disse que, no futuro, os usuários poderão baixar um modelo de íris para gerar o código correspondente no dispositivo local, executar o modelo localmente e gerar zkp. Dessa forma, o contrato on-chain pode usar zkp para verificar que o código de íris do usuário é gerado a partir do modelo correto e da íris razoável, enquanto as informações biológicas não saem do dispositivo do usuário;

Crédito da foto: Modulus Labs

1.3 Discutir diferentes cenários de aplicação com base na necessidade de IA verificável

1.3.1 Cenários que podem verificar que a IA talvez não seja necessária

No cenário do bot Rocky, os usuários podem não ser obrigados a verificar o processo de cálculo de ML. Primeiro, os usuários não têm experiência e não têm capacidade para fazer uma verificação real. Mesmo que haja uma ferramenta de verificação, na opinião do usuário, “Eu aperto um botão, a interface aparece para me dizer que este serviço de IA foi realmente gerado por um certo modelo”, e a autenticidade não pode ser determinada. Em segundo lugar, os usuários não precisam verificar, porque eles se importam se o rendimento da IA é alto. Os usuários migram quando a rentabilidade é baixa, e sempre escolhem o modelo que funciona melhor. Em resumo, quando o resultado final da IA é o que o usuário está procurando, o processo de verificação pode não ser significativo, porque o usuário só precisa migrar para o serviço que funciona melhor.

Uma possível solução é que a IA atue apenas como conselheira, e o usuário execute a transação de forma independente. Quando as pessoas inserem seus objetivos de negociação na IA, a IA calcula e retorna um caminho de transação/movimento de negociação off-chain melhor, e o usuário escolhe se o executa. As pessoas também não precisam verificar o modelo por trás disso; elas só precisam escolher o produto com o maior retorno.

Outra situação perigosa, mas altamente provável, é que as pessoas não se importam com seu controle sobre os ativos ou o processo de cálculo de IA. Quando um robô que ganha dinheiro automaticamente aparece, as pessoas até estão dispostas a hospedar dinheiro diretamente nele, assim como colocar tokens em CEX ou bancos tradicionais para gerenciamento financeiro. Porque as pessoas não se importam com os princípios por trás disso; elas só se importam com quanto dinheiro recebem no final, ou até mesmo quanto dinheiro a parte do projeto mostra que ganharam, este tipo de serviço pode ser capaz de adquirir rapidamente um grande número de usuários, e até iterar mais rapidamente do que os produtos do lado do projeto que usam IA verificável.

Dando um passo para trás, se a IA não participa de mudanças de estado on-chain, mas simplesmente raspa dados on-chain e os pré-processa para os usuários, então não há necessidade de gerar ZKP para o processo de cálculo. Aqui estão alguns exemplos deste tipo de aplicação como um “serviço de dados”:

  1. A caixa de bate-papo fornecida pela Mest é um serviço de dados típico. Os usuários podem usar perguntas e respostas para entender seus dados on-chain, como perguntar quanto dinheiro eles gastaram em NFT;
  2. ChaingPT é um assistente de IA multifuncional que pode interpretar contratos inteligentes para você antes de negociar, dizer se você está negociando com o pool certo ou se a transação provavelmente será capturada ou retirada. ChaingPT também está se preparando para fazer recomendações de notícias de IA, inserir sugestões para gerar automaticamente imagens e postá-las como NFTs e outros serviços;
  3. RSS3 fornece AIOP, para que os usuários possam selecionar os dados on-chain que desejam e fazer certo pré-processamento, de modo que seja fácil treinar a IA com dados específicos on-chain;
  4. DeVillama e RSS3 também desenvolveram plug-ins do ChatGPT, onde os usuários podem obter dados on-chain através de conversas;

1.3.2 Cenários que exigem IA verificável

Este artigo argumenta que os cenários envolvendo várias pessoas, envolvendo justiça e privacidade, requerem ZKP para fornecer verificação, e várias das aplicações mencionadas pela Modulus Labs são discutidas aqui:

  1. Quando uma comunidade recompensa indivíduos com base em reputações pessoais geradas por IA, os membros da comunidade inevitavelmente solicitarão uma revisão do processo de decisão de avaliação, que é o processo de cálculo de ML;
  2. Cenários de otimização de IA para AMM envolvem a distribuição de benefícios entre várias pessoas, e o processo de cálculo de IA também precisa ser verificado regularmente;
  3. Ao equilibrar privacidade e regulação, ZK é atualmente uma das melhores soluções. Se o provedor de serviços utiliza ML no serviço para processar dados privados, precisa gerar ZKP para todo o processo de cálculo;
  4. Uma vez que os oráculos têm uma ampla gama de influência, se controlados pela IA, ZKP precisa ser gerado regularmente para verificar se a IA está funcionando corretamente;
  5. Na competição, o público e outros participantes devem verificar se a computação da ML está em conformidade com as especificações da competição;
  6. Entre os potenciais casos de uso da Worldcoin, a proteção de dados biológicos pessoais também é uma forte exigência;

De maneira geral, quando a IA se assemelha a um tomador de decisões, e sua saída tem uma ampla gama de influência e envolve a equidade de várias partes, então as pessoas exigirão uma revisão do processo de tomada de decisão, ou simplesmente garantir que não haja problemas graves com o processo de tomada de decisão da IA e proteger a privacidade pessoal é uma exigência muito imediata.

Portanto, "se a saída da IA modifica o status on-chain" e "se afeta a justiça/privacidade" são dois critérios para julgar se uma solução de IA verificável é necessária

  1. Quando a saída do IA não modifica o estado on-chain, o serviço de IA pode atuar como um recomendador. As pessoas podem julgar a qualidade do serviço de IA através do efeito de recomendação sem verificar o processo de cálculo;
  2. Quando a saída de IA modifica o status on-chain, se os alvos de serviço forem apenas indivíduos e não afetarem a privacidade, então os usuários ainda podem julgar diretamente a qualidade do serviço de IA sem verificar o processo de cálculo;
  3. Quando a saída de IA afeta diretamente a equidade entre muitas pessoas e a IA modifica automaticamente os dados on-chain, a comunidade e o público precisam testar o processo de tomada de decisão da IA;
  4. Quando os dados processados pela ML envolvem privacidade pessoal, zk também é necessário para proteger a privacidade e, assim, atender aos requisitos regulatórios.

Crédito da Foto: Kernel Ventures

2. Dois modelos de ecossistema de IA baseados em cadeia pública

Em qualquer caso, a solução da Modulus Labs é altamente instrutiva sobre como a IA pode combinar criptografia e trazer valor prático de aplicação. No entanto, o sistema de cadeia pública não apenas aprimora as capacidades dos serviços individuais de IA, mas também tem o potencial de construir um novo ecossistema de aplicativos de IA. Este novo ecossistema trouxe uma relação diferente entre os serviços de IA do que o Web2, a relação entre os serviços de IA e os usuários, e até mesmo a forma como os elos a montante e a jusante colaboram. Podemos resumir os modelos potenciais de ecossistema de aplicativos de IA em dois tipos: modo vertical e modelo horizontal.

2.1 Modo Vertical: Concentre-se em alcançar a composição entre AIs

O caso de uso de xadrez em cadeia “Leela vs. the World” tem um lugar especial. As pessoas podem fazer apostas em humanos ou IA, e os tokens são distribuídos automaticamente após o fim do jogo. Neste ponto, o significado de zkp não é apenas para os usuários verificarem os cálculos da IA, mas também como uma garantia de confiança para desencadear transições de estado em cadeia. Com a garantia de confiança, pode haver também uma composabilidade ao nível do dapp entre os serviços de IA e entre a IA e os dapps nativos de criptomoeda.

Fonte da imagem: Kernel Ventures, com referência da Modulus Labs

A unidade básica de AI combinável é [modelo ML off-chain - geração zkp - contrato de verificação on-chain - contrato principal]. Esta unidade baseia-se no framework “Leela vs. the World”, mas a arquitetura real de um único dapp de AI pode não ser a mesma que a mostrada na imagem acima. Primeiro, a situação do jogo de xadrez em xadrez requer um contrato, mas na realidade, a AI pode não precisar de um contrato on-chain. No entanto, no que diz respeito à arquitetura de AI combinável, se o negócio principal for registrado através de contratos, pode ser mais conveniente para outros dapps combiná-lo. Em segundo lugar, o contrato principal não necessariamente precisa afetar o modelo ML do próprio dapp de AI, porque um dapp de AI pode ter um efeito unidirecional. Depois que o modelo ML é processado, é suficiente acionar um contrato relacionado ao seu próprio negócio, e o contrato será chamado por outros dapps.

Extensivamente, chamadas entre contratos são chamadas entre diferentes aplicações web3. São chamadas para identidade pessoal, ativos, serviços financeiros e até informações sociais. Podemos imaginar uma combinação específica de aplicações de IA:

  1. Worldcoin usa ML para gerar códigos de íris e zkp para dados pessoais de íris;
  2. O aplicativo de IA de pontuação de reputação primeiro verifica se a pessoa por trás deste DID é uma pessoa real (com dados da íris na parte de trás), e então aloca NFTs aos usuários com base na reputação on-chain;
  3. O serviço de empréstimo ajusta a participação do empréstimo de acordo com o NFT possuído pelo usuário;

A interação entre a IA no framework da cadeia pública não é algo que não tenha sido discutido. Loaf, um contribuinte para o ecossistema Realms de jogos de cadeia completa, propôs que os NPCs de IA possam negociar entre si como jogadores, para que todo o sistema econômico possa se otimizar e operar automaticamente. A AI Arena desenvolveu um jogo de batalha automatizado de IA. Os usuários primeiro compram um NFT. Um NFT representa um robô de batalha, e um modelo de IA está por trás dele. Os usuários primeiro jogam jogos por conta própria, depois passam os dados para a IA para aprendizado simulado. Quando os usuários sentem que a IA está forte o suficiente, eles podem jogar automaticamente contra outras AIs na arena. A Modulus Labs mencionou que a AI Arena quer transformar toda essa IA em IA verificável. Ambos os casos viram a possibilidade de a IA interagir entre si e modificar diretamente os dados on-chain conforme interagiam.

No entanto, ainda há muitas questões a serem discutidas na implementação específica da IA combinável, como diferentes dapps podem usar zkp uns dos outros ou verificar contratos. No entanto, também existem muitos excelentes projetos no campo zk. Por exemplo, RISC Zero fez muito progresso na realização de cálculos complexos off-chain e liberando zkp para a chain. Talvez um dia seja possível reunir uma solução apropriada.

2.2 Modelo horizontal: plataformas de serviços de IA que se concentram na descentralização

Nesse sentido, apresentamos principalmente uma plataforma de IA descentralizada chamada SAKSHI, que foi proposta em conjunto por pessoas da Universidade de Princeton, da Universidade Tsinghua, da Universidade de Illinois em Urbana-Champaign, da Universidade de Ciência e Tecnologia de Hong Kong, Witness Chain e Eigen Layer. Seu objetivo principal é permitir que os usuários acessem serviços de IA de maneira mais descentralizada, tornando todo o processo mais confiável e automatizado.

Crédito da foto: SAKSHI

A estrutura da SAKSHI pode ser dividida em seis camadas: camada de serviço (camada de serviço), camada de controle (camada de controle), camada de transação (camada de tradução), camada de prova (camada de prova), camada econômica (camada econômica) e camada de mercado (Marketplace)

O mercado é o nível mais próximo do usuário. Existem agregadores no mercado para fornecer serviços aos usuários em nome de diferentes provedores de IA. Os usuários realizam pedidos por meio de agregadores e chegam a acordos com os agregadores sobre qualidade de serviço e preços de pagamento (os acordos são chamados de SLA - acordos de nível de serviço).

A seguir, a camada de serviço fornece uma API para o lado do cliente, então o cliente faz uma solicitação de inferência de ML para o agregador, e a solicitação é enviada a um servidor usado para combinar o provedor de serviços de IA (a rota usada para transmitir a solicitação faz parte da camada de controle). Portanto, a camada de serviço e a camada de controle são semelhantes a um serviço com vários servidores web2, mas os servidores diferentes são operados por entidades diferentes, e cada servidor é vinculado por meio de um SLA (acordo de serviço previamente assinado) e um agregador.

SLAs são implantados na cadeia na forma de contratos inteligentes, todos os quais pertencem à camada de transação (nota: nesta solução, eles são implantados na Witness Chain). A camada de transação também registra o status atual de um pedido de serviço e é usada para coordenar usuários, agregadores e provedores de serviços para lidar com disputas de pagamento.

Para que a camada de transação tenha evidências para se apoiar ao lidar com disputas, a camada de prova (Camada de Prova) verificará se o provedor de serviços utiliza o modelo conforme acordado no SLA. No entanto, SAKSHI não optou por gerar zkp para o processo de cálculo de ML, mas em vez disso, utilizou a ideia de prova otimista, esperando estabelecer uma rede de nós desafiantes para testar o serviço. Os incentivos de nó são suportados pela Witness Chain.

Embora a SLA e a rede de nós desafiadores estejam na cadeia de testemunhas, no plano da SAKSHI, a cadeia de testemunhas não pretende usar seus incentivos de token nativo para alcançar segurança independente, mas sim usa a segurança do Ethereum através da Eigen Layer, então toda a economia na verdade depende da Eigen Layer.

Como pode ser visto, SAKSHI está entre os provedores de serviços de IA e os usuários, e organiza diferentes IAs de forma descentralizada para fornecer serviços aos usuários. Isso se parece mais com uma solução horizontal. O cerne do SAKSHI é permitir que os provedores de serviços de IA se concentrem mais em gerenciar seus próprios cálculos de modelos off-chain, correspondendo às necessidades dos usuários com serviços de modelo, pagamento dos serviços e verificação da qualidade do serviço por meio de acordos on-chain, e tentando resolver automaticamente disputas de pagamento. Claro, no momento, o SAKSHI ainda está na fase teórica e há também muitos detalhes de implementação que valem a pena determinar.

3. Perspectivas futuras

Seja AI combinável ou plataformas de AI descentralizadas, o modelo de ecossistema de AI baseado na cadeia pública parece ter algo em comum. Por exemplo, os provedores de serviços de AI não se conectam diretamente com os usuários; eles só precisam fornecer modelos de ML e realizar cálculos off-chain. Pagamentos, resolução de disputas e coordenação entre as necessidades do usuário e os serviços podem ser resolvidos por meio de acordos descentralizados. Como uma infraestrutura sem confiança, a cadeia pública reduz o atrito entre provedores de serviços e usuários, e os usuários também têm maior autonomia neste momento.

Embora as vantagens de usar a cadeia pública como uma base de aplicação sejam clichês, é verdade que isso também se aplica aos serviços de IA. No entanto, a diferença entre os aplicativos de IA e os aplicativos dapp existentes é que os aplicativos de IA não podem colocar toda a computação na cadeia, portanto, é necessário usar zk ou prova otimista para conectar os serviços de IA ao sistema da cadeia pública de maneira mais confiável.

Com a implementação de uma série de soluções de otimização da experiência, como a abstração de contas, os usuários podem não ser capazes de perceber a existência de mnemônicos, cadeias e gás. Isso aproxima o ecossistema de cadeias públicas do web2 em termos de experiência, enquanto os usuários podem obter um grau maior de liberdade e composabilidade do que os serviços web2. Isso será muito atraente para os usuários. O ecossistema de aplicativos de IA baseado na cadeia pública vale a pena esperar.


Kernel Ventures é um fundo de capital de risco de criptomoeda impulsionado por uma comunidade de pesquisa e desenvolvimento com mais de 70 investimentos em estágio inicial, focando em infraestrutura, middleware, dApps, especialmente ZK, Rollup, DEX, blockchains modulares e verticais que hospedarão os próximos bilhões de usuários de criptomoedas, como abstração de contas, disponibilidade de dados, escalabilidade, etc. Nos últimos sete anos, temos nos comprometido a apoiar o desenvolvimento de comunidades de desenvolvimento de núcleo e associações universitárias de blockchain ao redor do mundo.

Aviso Legal:

  1. Este artigo é reproduzido a partir de[espelho]. Todos os direitos autorais pertencem ao autor original [Kernel Ventures Jerry Luo]. Se houver objeções a essa reimpressão, entre em contato com a equipe Gate Learn(gatelearn@gate.io), e eles lidarão com isso prontamente.
  2. Responsabilidade de Isenção: As visões e opiniões expressas neste artigo são exclusivamente do autor e não constituem nenhum conselho de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipe Gate Learn. Salvo indicação em contrário, copiar, distribuir ou plagiar os artigos traduzidos é proibido.
Начните торговать сейчас
Зарегистрируйтесь сейчас и получите ваучер на
$100
!