De IA Verificável para IA Componível - Reflexões sobre Cenários de Aplicação ZKML

Intermediário12/17/2023, 5:56:24 PM
Este artigo reexamina as soluções de IA verificáveis de uma perspectiva de aplicação e analisa em que cenários elas são necessárias imediatamente e em quais cenários a demanda é relativamente fraca. Por fim, o modelo de ecossistema de IA baseado na cadeia pública foi discutido e foram propostos dois modelos de desenvolvimento diferentes, horizontal e vertical.
  1. Se a IA verificável é necessária depende de: se os dados on-chain são modificados e se a equidade e a privacidade estão envolvidas

    1. Quando a IA não afeta o status on-chain, a IA pode atuar como um conselheiro. As pessoas podem julgar a qualidade dos serviços de IA através dos resultados reais sem verificar o processo de cálculo.
    2. Quando o estado on-chain é afetado, se o serviço visa indivíduos e não afeta a privacidade, então os usuários ainda podem julgar diretamente a qualidade dos serviços de IA sem verificar o processo de cálculo.
    3. Quando a saída da IA afeta a equidade e a privacidade pessoal entre muitas pessoas, como usar a IA para avaliar e distribuir recompensas aos membros da comunidade, usar a IA para otimizar o AMM, ou envolver dados biológicos, as pessoas vão querer rever os cálculos da IA. É aqui que se pode verificar que a IA pode encontrar PMF.
  2. Ecossistema de aplicações de IA vertical: uma vez que uma extremidade da IA verificável é um contrato inteligente, as aplicações de IA verificáveis e até mesmo as dapps de IA nativas podem ser capazes de se utilizar mutuamente sem confiança. Este é um potencial ecossistema de aplicações de IA componíveis

  3. Ecossistema de aplicação de IA horizontal: O sistema de cadeia pública pode lidar com questões como pagamento de serviços, coordenação de disputas de pagamento e correspondência das necessidades do usuário e conteúdo de serviço para provedores de serviços de IA, para que os usuários possam desfrutar de uma experiência de serviço de IA descentralizada com um maior grau de liberdade.

1. Visão geral da Modulus Labs e Histórias de Aplicação

1.1 Introdução e soluções principais

Modulus Labs é uma empresa de IA “on-chain” que acredita que a IA pode melhorar significativamente as capacidades dos contratos inteligentes e tornar as aplicações web3 mais poderosas. No entanto, existe uma contradição quando a IA é aplicada ao web3, ou seja, a IA requer uma grande quantidade de potência de computação para funcionar, e a IA é uma caixa-preta para computação off-chain. Isso não cumpre os requisitos básicos do web3 para ser trustless e verificável.

Portanto, a Modulus Labs baseou-se no esquema zk rollup [pré-processamento off-chain+verificação on-chain] e propôs uma arquitetura que pode verificar a IA. Especificamente, o modelo de ML é executado off-chain e, além disso, é gerado um zkp para o processo de cálculo de ML off-chain. Através deste zkp, a arquitetura, pesos e entradas (inputs) do modelo off-chain podem ser verificados. Claro, este zkp também pode ser postado na chain para verificação por contratos inteligentes. Neste ponto, a IA e os contratos on-chain podem interagir com mais confiança, ou seja, foi realizado o “AI on-chain”.

Com base na ideia de IA verificável, a Modulus Labs lançou até agora três aplicações de "IA on-chain" e também propôs muitos cenários de aplicação possíveis.

1,2 Casos de aplicação

  1. O primeiro a ser lançado foi o Rocky Bot, uma IA de negociação automatizada. O Rocky foi treinado com dados históricos do par de negociação Weth/USDC. Ele avalia as tendências futuras do weth com base em dados históricos. Após tomar uma decisão de negociação, ele irá gerar um zkp para o processo de decisão (processo de cálculo) e enviar uma mensagem para L1 para acionar a transação.
  2. O segundo é o jogo de xadrez on-chain “Leela vs. the World”. Ambos os jogadores no jogo são IA e humanos, e a situação do jogo está em um contrato. O jogador opera através de uma carteira (interage com contratos). No entanto, a IA lê a nova situação do jogo de xadrez, faz um julgamento e gera zkp para todo o processo de cálculo. Ambas as etapas são concluídas na nuvem da AWS, e zkp é verificado por um contrato on-chain. Após a verificação bem-sucedida, o contrato do jogo é usado para “jogar xadrez”.
  3. O terceiro é um artista de IA "on-chain" e lançou a série NFT zKMon. O núcleo é que a IA gera NFTs e os publica na cadeia, e também gera um zkp. Os utilizadores podem verificar se o seu NFT foi gerado a partir do modelo de IA correspondente através do zkp.

Além disso, a Modulus Labs mencionou alguns outros casos de uso:

  1. Use IA para avaliar dados pessoais na cadeia e outras informações, gerar classificações de reputação pessoal e publicar zkp para verificação do utilizador;
  2. Usar IA para otimizar o desempenho do AMM e publicar zkp para os usuários verificarem;
  3. Usar IA verificável para ajudar projetos de privacidade a lidar com a pressão regulatória, mas ao mesmo tempo não expor a privacidade (talvez usando ML para provar que esta transação não é lavagem de dinheiro, sem divulgar informações como endereços de usuário);
  4. Oráculos de IA e lançamento de zkp para que todos possam verificar a confiabilidade dos dados off-chain;
  5. Na competição de modelos de IA, os concorrentes submetem a sua própria arquitetura e pesos, executam o modelo com uma entrada de teste unificada para gerar zkp para computação, e o contrato final envia automaticamente o prémio ao vencedor;
  6. A Worldcoin afirmou que, no futuro, os utilizadores poderão descarregar um modelo de íris para gerar o código correspondente no dispositivo local, executar o modelo localmente e gerar zkp. Desta forma, o contrato on-chain pode usar zkp para verificar que o código da íris do utilizador é gerado a partir do modelo correto e de uma íris razoável, enquanto a informação biológica não sai do dispositivo do utilizador;

Crédito da foto: Modulus Labs

1.3 Discutir diferentes cenários de aplicação com base na necessidade de IA verificável

1.3.1 Cenários que podem verificar que a IA pode não ser necessária

No cenário do bot Rocky, os utilizadores podem não ser obrigados a verificar o processo de cálculo de ML. Em primeiro lugar, os utilizadores não têm experiência nem capacidade para fazer uma verificação real. Mesmo que exista uma ferramenta de verificação, na opinião do utilizador, "pressiono um botão, a interface aparece a dizer-me que este serviço de IA foi realmente gerado por um certo modelo", e a autenticidade não pode ser determinada. Em segundo lugar, os utilizadores não precisam de verificar, porque se preocupam se o rendimento da IA é elevado. Os utilizadores migram quando a rentabilidade é baixa e escolhem sempre o modelo que funciona melhor. Em resumo, quando o resultado final da IA é o que o utilizador procura, o processo de verificação pode não ser significativo porque o utilizador só precisa de migrar para o serviço que funciona melhor.

Uma possível solução é que a IA apenas atue como consultora, e o utilizador execute a transação de forma independente. Quando as pessoas inserem os seus objetivos de negociação na IA, a IA calcula e devolve um melhor caminho de transação/direção de negociação off-chain, e o utilizador escolhe se a executa. As pessoas também não precisam de verificar o modelo por trás disso; apenas precisam de escolher o produto com o maior retorno.

Outra situação perigosa, mas altamente provável, é que as pessoas não se importam com o controle sobre os ativos ou o processo de cálculo de IA. Quando um robô que ganha dinheiro automaticamente aparece, as pessoas estão até dispostas a hospedar dinheiro diretamente nele, assim como colocar tokens em CEX ou bancos tradicionais para gestão financeira. Porque as pessoas não se importam com os princípios por trás disso; elas só se importam com quanto dinheiro recebem no final, ou até mesmo quanto dinheiro a parte do projeto mostra que ganham, esse tipo de serviço pode ser capaz de adquirir rapidamente um grande número de usuários, e até iterar mais rápido do que produtos do lado do projeto que usam IA verificável.

Dando um passo atrás, se a IA não participar de nenhuma alteração de estado on-chain, mas simplesmente raspar dados on-chain e pré-processá-los para os utilizadores, então não há necessidade de gerar ZKP para o processo de cálculo. Aqui estão alguns exemplos deste tipo de aplicação como um “serviço de dados”:

  1. A caixa de chat fornecida pela Mest é um serviço de dados típico. Os utilizadores podem utilizar perguntas e respostas para compreender os seus dados on-chain, como perguntar quanto dinheiro gastaram em NFT;
  2. ChaingPT é um assistente de IA multifuncional que pode interpretar contratos inteligentes para si antes de negociar, dizer-lhe se está a negociar com o pool correto ou dizer-lhe se a transação provavelmente será capturada ou retirada. A ChaingPT também está a preparar recomendações de notícias de IA, entrar sugestões para gerar automaticamente imagens e publicá-las como NFTs e outros serviços;
  3. RSS3 fornece AIOP, para que os utilizadores possam selecionar os dados on-chain que desejam e fazer determinado pré-processamento, de modo a facilitar o treino de IA com dados on-chain específicos;
  4. DeVillama e RSS3 também desenvolveram plug-ins do ChatGPT, onde os usuários podem obter dados on-chain através de conversas;

1.3.2 Cenários que exigem IA verificável

Este artigo defende que cenários envolvendo várias pessoas, envolvendo justiça e privacidade, requerem ZKP para fornecer verificação, e várias das aplicações mencionadas pela Modulus Labs são discutidas aqui:

  1. Quando uma comunidade recompensa indivíduos com base em reputações pessoais geradas por IA, os membros da comunidade inevitavelmente solicitarão uma revisão do processo de decisão de avaliação, que é o processo de cálculo de ML;
  2. Os cenários de otimização de IA para AMM envolvem a distribuição de benefícios entre várias pessoas, e o processo de cálculo de IA também precisa ser verificado regularmente;
  3. Quando equilibrar a privacidade e a regulamentação, ZK é atualmente uma das melhores soluções. Se o prestador de serviços utilizar ML no serviço para processar dados privados, precisa gerar ZKP para todo o processo de cálculo;
  4. Uma vez que os oráculos têm uma ampla gama de influência, se controlados pela IA, ZKP precisa ser gerado regularmente para verificar se a IA está funcionando corretamente;
  5. Na competição, o público e outros participantes devem verificar se a computação da ML está em conformidade com as especificações da competição;
  6. Entre os potenciais casos de uso da Worldcoin, a proteção de dados biológicos pessoais também é um requisito importante;

Em geral, quando a IA é semelhante a um tomador de decisões, e a sua saída tem uma ampla gama de influência e envolve equidade de várias partes, as pessoas exigirão uma revisão do processo de tomada de decisão, ou simplesmente garantir que não existam problemas importantes com o processo de tomada de decisão da IA, e proteger a privacidade pessoal é uma exigência muito imediata.

Portanto, “se a saída de IA modifica o estado on-chain” e “se afeta a equidade/privacidade” são dois critérios para julgar se uma solução de IA verificável é necessária

  1. Quando a saída da IA não modifica o estado on-chain, o serviço de IA pode atuar como um recomendador. As pessoas podem julgar a qualidade do serviço de IA através do efeito de recomendação sem verificar o processo de cálculo;
  2. Quando a saída do AI modifica o estado on-chain, se os alvos do serviço forem apenas indivíduos e não afetarem a privacidade, então os utilizadores ainda podem julgar diretamente a qualidade do serviço de AI sem verificar o processo de cálculo;
  3. Quando a saída da IA afeta diretamente a equidade entre muitas pessoas e a IA modifica automaticamente os dados on-chain, a comunidade e o público precisam testar o processo de tomada de decisão da IA;
  4. Quando os dados processados pela ML envolvem privacidade pessoal, zk também é necessário para proteger a privacidade e, assim, atender aos requisitos regulamentares.

Crédito da Foto: Kernel Ventures

2. Dois modelos de ecossistema de IA baseados em cadeia pública

De qualquer forma, a solução da Modulus Labs é altamente instrutiva sobre como a IA pode combinar criptografia e trazer valor prático à aplicação. No entanto, o sistema de cadeia pública não só melhora as capacidades dos serviços individuais de IA, mas também tem o potencial de construir um novo ecossistema de aplicação de IA. Este novo ecossistema trouxe uma relação diferente entre os serviços de IA do que o Web2, a relação entre os serviços de IA e os utilizadores, e até a forma como os elos a montante e a jusante colaboram. Podemos resumir os modelos potenciais do ecossistema de aplicação de IA em dois tipos: modo vertical e modelo horizontal.

2.1 Modo Vertical: Foco na conquista da composabilidade entre IA

O caso de uso de xadrez em cadeia “Leela vs. the World” tem um lugar especial. As pessoas podem apostar em humanos ou IA, e os tokens são distribuídos automaticamente após o fim do jogo. Neste ponto, o significado de zkp não é apenas para os utilizadores verificarem os cálculos da IA, mas também como uma garantia de confiança para desencadear transições de estado em cadeia. Com a garantia de confiança, pode também haver composabilidade ao nível da dapp entre os serviços de IA e entre IA e dapps nativas de criptografia.

Fonte da imagem: Kernel Ventures, com referência da Modulus Labs

A unidade básica de IA combinável é [modelo de ML fora da cadeia - geração de zkp - contrato de verificação na cadeia - contrato principal]. Esta unidade baseia-se no quadro 'Leela vs. the World', mas a arquitetura real de um único dapp de IA pode não ser a mesma que a mostrada na imagem acima. Em primeiro lugar, a situação do jogo de xadrez no xadrez requer um contrato, mas na realidade, a IA pode não necessitar de um contrato na cadeia. No entanto, no que diz respeito à arquitetura da IA combinável, se o negócio principal for registado através de contratos, pode ser mais conveniente para outros dapps combinarem com ele. Em segundo lugar, o contrato principal não necessita necessariamente de afetar o modelo de ML do dapp de IA em si, porque um dapp de IA pode ter um efeito unidirecional. Depois do modelo de ML ser processado, é suficiente acionar um contrato relacionado com o seu próprio negócio, e o contrato será chamado por outros dapps.

Amplamente, as chamadas entre contratos são chamadas entre diferentes aplicações web3. São chamadas para identidade pessoal, ativos, serviços financeiros e até informações sociais. Podemos imaginar uma combinação específica de aplicações de IA:

  1. Worldcoin usa ML para gerar códigos de íris e zkp para dados pessoais de íris;
  2. A aplicação de IA de pontuação de reputação primeiro verifica se a pessoa por trás deste DID é uma pessoa real (com dados de íris na parte de trás), depois aloca NFTs aos utilizadores com base na reputação on-chain;
  3. O serviço de empréstimo ajusta a quota de empréstimo de acordo com o NFT detido pelo utilizador;

A interação entre a IA no quadro da cadeia pública não é algo que não tenha sido discutido. Loaf, um contribuidor para o ecossistema Realms de jogos de cadeia completa, propôs que NPCs de IA possam negociar entre si como jogadores, para que todo o sistema econômico possa otimizar-se e operar automaticamente. A Arena de IA desenvolveu um jogo de batalha automatizado de IA. Os utilizadores compram primeiro um NFT. Um NFT representa um robô de batalha, e por trás está um modelo de IA. Os utilizadores jogam primeiro jogos por conta própria, depois entregam os dados à IA para aprendizagem simulada. Quando os utilizadores sentem que a IA é suficientemente forte, podem jogar automaticamente contra outras IAs na arena. A Modulus Labs mencionou que a Arena de IA quer transformar toda esta IA em IA verificável. Ambos os casos viram a possibilidade de interação entre IA e modificação de dados on-chain diretamente à medida que interagiam.

No entanto, ainda existem muitas questões a serem discutidas na implementação específica de IA combinável, como diferentes dapps podem usar os zkps uns dos outros ou verificar contratos. No entanto, também existem muitos projetos excelentes no campo zk. Por exemplo, a RISC Zero fez muitos progressos na realização de cálculos complexos off-chain e libertando zkps para a chain. Talvez um dia seja possível reunir uma solução adequada.

2.2 Modelo horizontal: plataformas de serviços de IA que se concentram na descentralização

Neste sentido, apresentamos principalmente uma plataforma de IA descentralizada chamada SAKSHI, que foi proposta em conjunto por pessoas da Universidade de Princeton, Universidade Tsinghua, Universidade de Illinois em Urbana-Champaign, Universidade de Ciência e Tecnologia de Hong Kong, Witness Chain e Eigen Layer. Seu objetivo principal é permitir que os usuários acessem serviços de IA de forma mais descentralizada, tornando todo o processo mais confiável e automatizado.

Crédito da Foto: SAKSHI

A estrutura da SAKSHI pode ser dividida em seis camadas: camada de serviço (camada de serviço), camada de controle (camada de controle), camada de transação (camada de transação), camada de prova (camada de prova), camada econômica (camada econômica) e camada de mercado (Marketplace)

O mercado é o nível mais próximo do utilizador. Existem agregadores no mercado para fornecer serviços aos utilizadores em nome de diferentes fornecedores de IA. Os utilizadores fazem pedidos através dos agregadores e chegam a acordos com os agregadores sobre a qualidade do serviço e os preços de pagamento (os acordos são chamados de acordos de nível de serviço - SLA).

A seguir, a camada de serviço fornece uma API para o lado do cliente, depois o cliente faz um pedido de inferência de ML para o agregador, e o pedido é enviado a um servidor usado para corresponder ao fornecedor de serviços de IA (a rota usada para transmitir o pedido faz parte da camada de controlo). Portanto, a camada de serviço e a camada de controlo são semelhantes a um serviço com vários servidores web2, mas os servidores diferentes são operados por entidades diferentes, e cada servidor está ligado através de um SLA (acordo de serviço previamente assinado) e um agregador.

SLAs são implementados na cadeia na forma de contratos inteligentes, todos os quais pertencem à camada de transação (nota: nesta solução, eles são implementados na Cadeia de Testemunhas). A camada de transação também regista o estado atual de um pedido de serviço e é usada para coordenar utilizadores, agregadores e fornecedores de serviços para lidar com disputas de pagamento.

Para que a camada de transação tenha evidências em que confiar ao lidar com disputas, a camada de prova (Camada de Prova) verificará se o provedor de serviços usa o modelo conforme acordado no SLA. No entanto, o SAKSHI não optou por gerar zkp para o processo de cálculo de ML, mas sim utilizou a ideia de prova otimista, esperando estabelecer uma rede de nós desafiadores para testar o serviço. Os incentivos dos nós são suportados pela Cadeia de Testemunhas.

Embora o SLA e a rede de nós desafiadores estejam na Witness Chain, no plano da SAKSHI, a Witness Chain não planeia usar os seus incentivos de token nativos para alcançar segurança independente, mas sim utiliza a segurança do Ethereum através da Eigen Layer, pelo que toda a economia na realidade depende da Eigen Layer.

Como se pode ver, SAKSHI está entre os fornecedores de serviços de IA e os utilizadores, e organiza diferentes IAs de forma descentralizada para fornecer serviços aos utilizadores. Isto é mais semelhante a uma solução horizontal. O cerne do SAKSHI é permitir que os fornecedores de serviços de IA se concentrem mais na gestão dos seus próprios cálculos de modelos off-chain, correspondendo as necessidades dos utilizadores com os serviços de modelos, pagamento de serviços e verificação da qualidade do serviço através de acordos on-chain, e tentando resolver automaticamente disputas de pagamento. Claro, neste momento o SAKSHI ainda está na fase teórica, e há também muitos detalhes de implementação que valem a pena determinar.

3. Perspectivas futuras

Quer se trate de IA combinável ou de plataformas de IA descentralizadas, o modelo de ecossistema de IA baseado na cadeia pública parece ter algo em comum. Por exemplo, os fornecedores de serviços de IA não se conectam diretamente com os utilizadores; eles apenas precisam de fornecer modelos de ML e realizar cálculos off-chain. Pagamentos, resolução de disputas e coordenação entre as necessidades dos utilizadores e os serviços podem ser resolvidos por acordos descentralizados. Como uma infraestrutura sem confiança, a cadeia pública reduz o atrito entre os fornecedores de serviços e os utilizadores, e os utilizadores também têm maior autonomia neste momento.

Embora as vantagens de usar a cadeia pública como base de aplicação sejam clichês, é verdade que também se aplica aos serviços de IA. No entanto, a diferença entre as aplicações de IA e as aplicações dapp existentes é que as aplicações de IA não podem colocar todas as computações na cadeia, portanto, é necessário usar zk ou prova otimista para conectar os serviços de IA ao sistema de cadeia pública de maneira mais confiável.

Com a implementação de uma série de soluções de otimização de experiência, como a abstração de conta, os utilizadores podem não ser capazes de sentir a existência de mnemónicas, cadeias e gás. Isto aproxima o ecossistema da cadeia pública do web2 em termos de experiência, enquanto os utilizadores podem obter um maior grau de liberdade e composição do que os serviços web2. Isto será muito atraente para os utilizadores. O ecossistema de aplicação de IA baseado na cadeia pública é digno de antecipação.


A Kernel Ventures é um fundo de capital de risco criptográfico impulsionado por uma comunidade de pesquisa e desenvolvimento com mais de 70 investimentos em estágios iniciais focados em infraestrutura, middleware, dApps, especialmente ZK, Rollup, DEX, blockchains modulares e verticais que hospedarão os próximos bilhões de utilizadores de criptomoedas, como a abstração de contas, disponibilidade de dados, escalabilidade, etc. Nos últimos sete anos, temos estado empenhados em apoiar o desenvolvimento de comunidades de desenvolvimento de núcleo e associações universitárias de blockchain em todo o mundo.

Aviso Legal:

  1. Este artigo é republicado a partir de[espelho]. Todos os direitos de autor pertencem ao autor original [Kernel Ventures Jerry Luo]. Se houver objeções a esta reimpressão, entre em contato com a equipe Gate Learn(gatelearn@gate.io), e eles vão lidar com isso prontamente.
  2. Aviso de Responsabilidade: As opiniões expressas neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipe Gate Learn. Salvo indicação em contrário, copiar, distribuir ou plagiar os artigos traduzidos é proibido.

De IA Verificável para IA Componível - Reflexões sobre Cenários de Aplicação ZKML

Intermediário12/17/2023, 5:56:24 PM
Este artigo reexamina as soluções de IA verificáveis de uma perspectiva de aplicação e analisa em que cenários elas são necessárias imediatamente e em quais cenários a demanda é relativamente fraca. Por fim, o modelo de ecossistema de IA baseado na cadeia pública foi discutido e foram propostos dois modelos de desenvolvimento diferentes, horizontal e vertical.
  1. Se a IA verificável é necessária depende de: se os dados on-chain são modificados e se a equidade e a privacidade estão envolvidas

    1. Quando a IA não afeta o status on-chain, a IA pode atuar como um conselheiro. As pessoas podem julgar a qualidade dos serviços de IA através dos resultados reais sem verificar o processo de cálculo.
    2. Quando o estado on-chain é afetado, se o serviço visa indivíduos e não afeta a privacidade, então os usuários ainda podem julgar diretamente a qualidade dos serviços de IA sem verificar o processo de cálculo.
    3. Quando a saída da IA afeta a equidade e a privacidade pessoal entre muitas pessoas, como usar a IA para avaliar e distribuir recompensas aos membros da comunidade, usar a IA para otimizar o AMM, ou envolver dados biológicos, as pessoas vão querer rever os cálculos da IA. É aqui que se pode verificar que a IA pode encontrar PMF.
  2. Ecossistema de aplicações de IA vertical: uma vez que uma extremidade da IA verificável é um contrato inteligente, as aplicações de IA verificáveis e até mesmo as dapps de IA nativas podem ser capazes de se utilizar mutuamente sem confiança. Este é um potencial ecossistema de aplicações de IA componíveis

  3. Ecossistema de aplicação de IA horizontal: O sistema de cadeia pública pode lidar com questões como pagamento de serviços, coordenação de disputas de pagamento e correspondência das necessidades do usuário e conteúdo de serviço para provedores de serviços de IA, para que os usuários possam desfrutar de uma experiência de serviço de IA descentralizada com um maior grau de liberdade.

1. Visão geral da Modulus Labs e Histórias de Aplicação

1.1 Introdução e soluções principais

Modulus Labs é uma empresa de IA “on-chain” que acredita que a IA pode melhorar significativamente as capacidades dos contratos inteligentes e tornar as aplicações web3 mais poderosas. No entanto, existe uma contradição quando a IA é aplicada ao web3, ou seja, a IA requer uma grande quantidade de potência de computação para funcionar, e a IA é uma caixa-preta para computação off-chain. Isso não cumpre os requisitos básicos do web3 para ser trustless e verificável.

Portanto, a Modulus Labs baseou-se no esquema zk rollup [pré-processamento off-chain+verificação on-chain] e propôs uma arquitetura que pode verificar a IA. Especificamente, o modelo de ML é executado off-chain e, além disso, é gerado um zkp para o processo de cálculo de ML off-chain. Através deste zkp, a arquitetura, pesos e entradas (inputs) do modelo off-chain podem ser verificados. Claro, este zkp também pode ser postado na chain para verificação por contratos inteligentes. Neste ponto, a IA e os contratos on-chain podem interagir com mais confiança, ou seja, foi realizado o “AI on-chain”.

Com base na ideia de IA verificável, a Modulus Labs lançou até agora três aplicações de "IA on-chain" e também propôs muitos cenários de aplicação possíveis.

1,2 Casos de aplicação

  1. O primeiro a ser lançado foi o Rocky Bot, uma IA de negociação automatizada. O Rocky foi treinado com dados históricos do par de negociação Weth/USDC. Ele avalia as tendências futuras do weth com base em dados históricos. Após tomar uma decisão de negociação, ele irá gerar um zkp para o processo de decisão (processo de cálculo) e enviar uma mensagem para L1 para acionar a transação.
  2. O segundo é o jogo de xadrez on-chain “Leela vs. the World”. Ambos os jogadores no jogo são IA e humanos, e a situação do jogo está em um contrato. O jogador opera através de uma carteira (interage com contratos). No entanto, a IA lê a nova situação do jogo de xadrez, faz um julgamento e gera zkp para todo o processo de cálculo. Ambas as etapas são concluídas na nuvem da AWS, e zkp é verificado por um contrato on-chain. Após a verificação bem-sucedida, o contrato do jogo é usado para “jogar xadrez”.
  3. O terceiro é um artista de IA "on-chain" e lançou a série NFT zKMon. O núcleo é que a IA gera NFTs e os publica na cadeia, e também gera um zkp. Os utilizadores podem verificar se o seu NFT foi gerado a partir do modelo de IA correspondente através do zkp.

Além disso, a Modulus Labs mencionou alguns outros casos de uso:

  1. Use IA para avaliar dados pessoais na cadeia e outras informações, gerar classificações de reputação pessoal e publicar zkp para verificação do utilizador;
  2. Usar IA para otimizar o desempenho do AMM e publicar zkp para os usuários verificarem;
  3. Usar IA verificável para ajudar projetos de privacidade a lidar com a pressão regulatória, mas ao mesmo tempo não expor a privacidade (talvez usando ML para provar que esta transação não é lavagem de dinheiro, sem divulgar informações como endereços de usuário);
  4. Oráculos de IA e lançamento de zkp para que todos possam verificar a confiabilidade dos dados off-chain;
  5. Na competição de modelos de IA, os concorrentes submetem a sua própria arquitetura e pesos, executam o modelo com uma entrada de teste unificada para gerar zkp para computação, e o contrato final envia automaticamente o prémio ao vencedor;
  6. A Worldcoin afirmou que, no futuro, os utilizadores poderão descarregar um modelo de íris para gerar o código correspondente no dispositivo local, executar o modelo localmente e gerar zkp. Desta forma, o contrato on-chain pode usar zkp para verificar que o código da íris do utilizador é gerado a partir do modelo correto e de uma íris razoável, enquanto a informação biológica não sai do dispositivo do utilizador;

Crédito da foto: Modulus Labs

1.3 Discutir diferentes cenários de aplicação com base na necessidade de IA verificável

1.3.1 Cenários que podem verificar que a IA pode não ser necessária

No cenário do bot Rocky, os utilizadores podem não ser obrigados a verificar o processo de cálculo de ML. Em primeiro lugar, os utilizadores não têm experiência nem capacidade para fazer uma verificação real. Mesmo que exista uma ferramenta de verificação, na opinião do utilizador, "pressiono um botão, a interface aparece a dizer-me que este serviço de IA foi realmente gerado por um certo modelo", e a autenticidade não pode ser determinada. Em segundo lugar, os utilizadores não precisam de verificar, porque se preocupam se o rendimento da IA é elevado. Os utilizadores migram quando a rentabilidade é baixa e escolhem sempre o modelo que funciona melhor. Em resumo, quando o resultado final da IA é o que o utilizador procura, o processo de verificação pode não ser significativo porque o utilizador só precisa de migrar para o serviço que funciona melhor.

Uma possível solução é que a IA apenas atue como consultora, e o utilizador execute a transação de forma independente. Quando as pessoas inserem os seus objetivos de negociação na IA, a IA calcula e devolve um melhor caminho de transação/direção de negociação off-chain, e o utilizador escolhe se a executa. As pessoas também não precisam de verificar o modelo por trás disso; apenas precisam de escolher o produto com o maior retorno.

Outra situação perigosa, mas altamente provável, é que as pessoas não se importam com o controle sobre os ativos ou o processo de cálculo de IA. Quando um robô que ganha dinheiro automaticamente aparece, as pessoas estão até dispostas a hospedar dinheiro diretamente nele, assim como colocar tokens em CEX ou bancos tradicionais para gestão financeira. Porque as pessoas não se importam com os princípios por trás disso; elas só se importam com quanto dinheiro recebem no final, ou até mesmo quanto dinheiro a parte do projeto mostra que ganham, esse tipo de serviço pode ser capaz de adquirir rapidamente um grande número de usuários, e até iterar mais rápido do que produtos do lado do projeto que usam IA verificável.

Dando um passo atrás, se a IA não participar de nenhuma alteração de estado on-chain, mas simplesmente raspar dados on-chain e pré-processá-los para os utilizadores, então não há necessidade de gerar ZKP para o processo de cálculo. Aqui estão alguns exemplos deste tipo de aplicação como um “serviço de dados”:

  1. A caixa de chat fornecida pela Mest é um serviço de dados típico. Os utilizadores podem utilizar perguntas e respostas para compreender os seus dados on-chain, como perguntar quanto dinheiro gastaram em NFT;
  2. ChaingPT é um assistente de IA multifuncional que pode interpretar contratos inteligentes para si antes de negociar, dizer-lhe se está a negociar com o pool correto ou dizer-lhe se a transação provavelmente será capturada ou retirada. A ChaingPT também está a preparar recomendações de notícias de IA, entrar sugestões para gerar automaticamente imagens e publicá-las como NFTs e outros serviços;
  3. RSS3 fornece AIOP, para que os utilizadores possam selecionar os dados on-chain que desejam e fazer determinado pré-processamento, de modo a facilitar o treino de IA com dados on-chain específicos;
  4. DeVillama e RSS3 também desenvolveram plug-ins do ChatGPT, onde os usuários podem obter dados on-chain através de conversas;

1.3.2 Cenários que exigem IA verificável

Este artigo defende que cenários envolvendo várias pessoas, envolvendo justiça e privacidade, requerem ZKP para fornecer verificação, e várias das aplicações mencionadas pela Modulus Labs são discutidas aqui:

  1. Quando uma comunidade recompensa indivíduos com base em reputações pessoais geradas por IA, os membros da comunidade inevitavelmente solicitarão uma revisão do processo de decisão de avaliação, que é o processo de cálculo de ML;
  2. Os cenários de otimização de IA para AMM envolvem a distribuição de benefícios entre várias pessoas, e o processo de cálculo de IA também precisa ser verificado regularmente;
  3. Quando equilibrar a privacidade e a regulamentação, ZK é atualmente uma das melhores soluções. Se o prestador de serviços utilizar ML no serviço para processar dados privados, precisa gerar ZKP para todo o processo de cálculo;
  4. Uma vez que os oráculos têm uma ampla gama de influência, se controlados pela IA, ZKP precisa ser gerado regularmente para verificar se a IA está funcionando corretamente;
  5. Na competição, o público e outros participantes devem verificar se a computação da ML está em conformidade com as especificações da competição;
  6. Entre os potenciais casos de uso da Worldcoin, a proteção de dados biológicos pessoais também é um requisito importante;

Em geral, quando a IA é semelhante a um tomador de decisões, e a sua saída tem uma ampla gama de influência e envolve equidade de várias partes, as pessoas exigirão uma revisão do processo de tomada de decisão, ou simplesmente garantir que não existam problemas importantes com o processo de tomada de decisão da IA, e proteger a privacidade pessoal é uma exigência muito imediata.

Portanto, “se a saída de IA modifica o estado on-chain” e “se afeta a equidade/privacidade” são dois critérios para julgar se uma solução de IA verificável é necessária

  1. Quando a saída da IA não modifica o estado on-chain, o serviço de IA pode atuar como um recomendador. As pessoas podem julgar a qualidade do serviço de IA através do efeito de recomendação sem verificar o processo de cálculo;
  2. Quando a saída do AI modifica o estado on-chain, se os alvos do serviço forem apenas indivíduos e não afetarem a privacidade, então os utilizadores ainda podem julgar diretamente a qualidade do serviço de AI sem verificar o processo de cálculo;
  3. Quando a saída da IA afeta diretamente a equidade entre muitas pessoas e a IA modifica automaticamente os dados on-chain, a comunidade e o público precisam testar o processo de tomada de decisão da IA;
  4. Quando os dados processados pela ML envolvem privacidade pessoal, zk também é necessário para proteger a privacidade e, assim, atender aos requisitos regulamentares.

Crédito da Foto: Kernel Ventures

2. Dois modelos de ecossistema de IA baseados em cadeia pública

De qualquer forma, a solução da Modulus Labs é altamente instrutiva sobre como a IA pode combinar criptografia e trazer valor prático à aplicação. No entanto, o sistema de cadeia pública não só melhora as capacidades dos serviços individuais de IA, mas também tem o potencial de construir um novo ecossistema de aplicação de IA. Este novo ecossistema trouxe uma relação diferente entre os serviços de IA do que o Web2, a relação entre os serviços de IA e os utilizadores, e até a forma como os elos a montante e a jusante colaboram. Podemos resumir os modelos potenciais do ecossistema de aplicação de IA em dois tipos: modo vertical e modelo horizontal.

2.1 Modo Vertical: Foco na conquista da composabilidade entre IA

O caso de uso de xadrez em cadeia “Leela vs. the World” tem um lugar especial. As pessoas podem apostar em humanos ou IA, e os tokens são distribuídos automaticamente após o fim do jogo. Neste ponto, o significado de zkp não é apenas para os utilizadores verificarem os cálculos da IA, mas também como uma garantia de confiança para desencadear transições de estado em cadeia. Com a garantia de confiança, pode também haver composabilidade ao nível da dapp entre os serviços de IA e entre IA e dapps nativas de criptografia.

Fonte da imagem: Kernel Ventures, com referência da Modulus Labs

A unidade básica de IA combinável é [modelo de ML fora da cadeia - geração de zkp - contrato de verificação na cadeia - contrato principal]. Esta unidade baseia-se no quadro 'Leela vs. the World', mas a arquitetura real de um único dapp de IA pode não ser a mesma que a mostrada na imagem acima. Em primeiro lugar, a situação do jogo de xadrez no xadrez requer um contrato, mas na realidade, a IA pode não necessitar de um contrato na cadeia. No entanto, no que diz respeito à arquitetura da IA combinável, se o negócio principal for registado através de contratos, pode ser mais conveniente para outros dapps combinarem com ele. Em segundo lugar, o contrato principal não necessita necessariamente de afetar o modelo de ML do dapp de IA em si, porque um dapp de IA pode ter um efeito unidirecional. Depois do modelo de ML ser processado, é suficiente acionar um contrato relacionado com o seu próprio negócio, e o contrato será chamado por outros dapps.

Amplamente, as chamadas entre contratos são chamadas entre diferentes aplicações web3. São chamadas para identidade pessoal, ativos, serviços financeiros e até informações sociais. Podemos imaginar uma combinação específica de aplicações de IA:

  1. Worldcoin usa ML para gerar códigos de íris e zkp para dados pessoais de íris;
  2. A aplicação de IA de pontuação de reputação primeiro verifica se a pessoa por trás deste DID é uma pessoa real (com dados de íris na parte de trás), depois aloca NFTs aos utilizadores com base na reputação on-chain;
  3. O serviço de empréstimo ajusta a quota de empréstimo de acordo com o NFT detido pelo utilizador;

A interação entre a IA no quadro da cadeia pública não é algo que não tenha sido discutido. Loaf, um contribuidor para o ecossistema Realms de jogos de cadeia completa, propôs que NPCs de IA possam negociar entre si como jogadores, para que todo o sistema econômico possa otimizar-se e operar automaticamente. A Arena de IA desenvolveu um jogo de batalha automatizado de IA. Os utilizadores compram primeiro um NFT. Um NFT representa um robô de batalha, e por trás está um modelo de IA. Os utilizadores jogam primeiro jogos por conta própria, depois entregam os dados à IA para aprendizagem simulada. Quando os utilizadores sentem que a IA é suficientemente forte, podem jogar automaticamente contra outras IAs na arena. A Modulus Labs mencionou que a Arena de IA quer transformar toda esta IA em IA verificável. Ambos os casos viram a possibilidade de interação entre IA e modificação de dados on-chain diretamente à medida que interagiam.

No entanto, ainda existem muitas questões a serem discutidas na implementação específica de IA combinável, como diferentes dapps podem usar os zkps uns dos outros ou verificar contratos. No entanto, também existem muitos projetos excelentes no campo zk. Por exemplo, a RISC Zero fez muitos progressos na realização de cálculos complexos off-chain e libertando zkps para a chain. Talvez um dia seja possível reunir uma solução adequada.

2.2 Modelo horizontal: plataformas de serviços de IA que se concentram na descentralização

Neste sentido, apresentamos principalmente uma plataforma de IA descentralizada chamada SAKSHI, que foi proposta em conjunto por pessoas da Universidade de Princeton, Universidade Tsinghua, Universidade de Illinois em Urbana-Champaign, Universidade de Ciência e Tecnologia de Hong Kong, Witness Chain e Eigen Layer. Seu objetivo principal é permitir que os usuários acessem serviços de IA de forma mais descentralizada, tornando todo o processo mais confiável e automatizado.

Crédito da Foto: SAKSHI

A estrutura da SAKSHI pode ser dividida em seis camadas: camada de serviço (camada de serviço), camada de controle (camada de controle), camada de transação (camada de transação), camada de prova (camada de prova), camada econômica (camada econômica) e camada de mercado (Marketplace)

O mercado é o nível mais próximo do utilizador. Existem agregadores no mercado para fornecer serviços aos utilizadores em nome de diferentes fornecedores de IA. Os utilizadores fazem pedidos através dos agregadores e chegam a acordos com os agregadores sobre a qualidade do serviço e os preços de pagamento (os acordos são chamados de acordos de nível de serviço - SLA).

A seguir, a camada de serviço fornece uma API para o lado do cliente, depois o cliente faz um pedido de inferência de ML para o agregador, e o pedido é enviado a um servidor usado para corresponder ao fornecedor de serviços de IA (a rota usada para transmitir o pedido faz parte da camada de controlo). Portanto, a camada de serviço e a camada de controlo são semelhantes a um serviço com vários servidores web2, mas os servidores diferentes são operados por entidades diferentes, e cada servidor está ligado através de um SLA (acordo de serviço previamente assinado) e um agregador.

SLAs são implementados na cadeia na forma de contratos inteligentes, todos os quais pertencem à camada de transação (nota: nesta solução, eles são implementados na Cadeia de Testemunhas). A camada de transação também regista o estado atual de um pedido de serviço e é usada para coordenar utilizadores, agregadores e fornecedores de serviços para lidar com disputas de pagamento.

Para que a camada de transação tenha evidências em que confiar ao lidar com disputas, a camada de prova (Camada de Prova) verificará se o provedor de serviços usa o modelo conforme acordado no SLA. No entanto, o SAKSHI não optou por gerar zkp para o processo de cálculo de ML, mas sim utilizou a ideia de prova otimista, esperando estabelecer uma rede de nós desafiadores para testar o serviço. Os incentivos dos nós são suportados pela Cadeia de Testemunhas.

Embora o SLA e a rede de nós desafiadores estejam na Witness Chain, no plano da SAKSHI, a Witness Chain não planeia usar os seus incentivos de token nativos para alcançar segurança independente, mas sim utiliza a segurança do Ethereum através da Eigen Layer, pelo que toda a economia na realidade depende da Eigen Layer.

Como se pode ver, SAKSHI está entre os fornecedores de serviços de IA e os utilizadores, e organiza diferentes IAs de forma descentralizada para fornecer serviços aos utilizadores. Isto é mais semelhante a uma solução horizontal. O cerne do SAKSHI é permitir que os fornecedores de serviços de IA se concentrem mais na gestão dos seus próprios cálculos de modelos off-chain, correspondendo as necessidades dos utilizadores com os serviços de modelos, pagamento de serviços e verificação da qualidade do serviço através de acordos on-chain, e tentando resolver automaticamente disputas de pagamento. Claro, neste momento o SAKSHI ainda está na fase teórica, e há também muitos detalhes de implementação que valem a pena determinar.

3. Perspectivas futuras

Quer se trate de IA combinável ou de plataformas de IA descentralizadas, o modelo de ecossistema de IA baseado na cadeia pública parece ter algo em comum. Por exemplo, os fornecedores de serviços de IA não se conectam diretamente com os utilizadores; eles apenas precisam de fornecer modelos de ML e realizar cálculos off-chain. Pagamentos, resolução de disputas e coordenação entre as necessidades dos utilizadores e os serviços podem ser resolvidos por acordos descentralizados. Como uma infraestrutura sem confiança, a cadeia pública reduz o atrito entre os fornecedores de serviços e os utilizadores, e os utilizadores também têm maior autonomia neste momento.

Embora as vantagens de usar a cadeia pública como base de aplicação sejam clichês, é verdade que também se aplica aos serviços de IA. No entanto, a diferença entre as aplicações de IA e as aplicações dapp existentes é que as aplicações de IA não podem colocar todas as computações na cadeia, portanto, é necessário usar zk ou prova otimista para conectar os serviços de IA ao sistema de cadeia pública de maneira mais confiável.

Com a implementação de uma série de soluções de otimização de experiência, como a abstração de conta, os utilizadores podem não ser capazes de sentir a existência de mnemónicas, cadeias e gás. Isto aproxima o ecossistema da cadeia pública do web2 em termos de experiência, enquanto os utilizadores podem obter um maior grau de liberdade e composição do que os serviços web2. Isto será muito atraente para os utilizadores. O ecossistema de aplicação de IA baseado na cadeia pública é digno de antecipação.


A Kernel Ventures é um fundo de capital de risco criptográfico impulsionado por uma comunidade de pesquisa e desenvolvimento com mais de 70 investimentos em estágios iniciais focados em infraestrutura, middleware, dApps, especialmente ZK, Rollup, DEX, blockchains modulares e verticais que hospedarão os próximos bilhões de utilizadores de criptomoedas, como a abstração de contas, disponibilidade de dados, escalabilidade, etc. Nos últimos sete anos, temos estado empenhados em apoiar o desenvolvimento de comunidades de desenvolvimento de núcleo e associações universitárias de blockchain em todo o mundo.

Aviso Legal:

  1. Este artigo é republicado a partir de[espelho]. Todos os direitos de autor pertencem ao autor original [Kernel Ventures Jerry Luo]. Se houver objeções a esta reimpressão, entre em contato com a equipe Gate Learn(gatelearn@gate.io), e eles vão lidar com isso prontamente.
  2. Aviso de Responsabilidade: As opiniões expressas neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipe Gate Learn. Salvo indicação em contrário, copiar, distribuir ou plagiar os artigos traduzidos é proibido.
Empieza ahora
¡Registrarse y recibe un bono de
$100
!