Se a IA verificável é necessária depende de: se os dados on-chain são modificados e se a justiça e a privacidade estão envolvidas
Ecossistema de aplicativos de IA vertical: Como um dos extremos da IA verificável é um contrato inteligente, aplicativos de IA verificáveis e até mesmo aplicativos de IA e dapps nativos podem ser capazes de se utilizar mutuamente sem confiança. Este é um potencial ecossistema de aplicativos de IA componíveis
Modulus Labs é uma empresa de IA “on-chain” que acredita que a IA pode melhorar significativamente as capacidades dos contratos inteligentes e tornar as aplicações web3 mais poderosas. No entanto, há uma contradição quando a IA é aplicada ao web3, ou seja, a IA requer uma grande quantidade de potência de computação para operar, e a IA é uma caixa preta para computação off-chain. Isso não atende aos requisitos básicos do web3 de ser sem confiança e verificável.
Portanto, a Modulus Labs baseou-se no esquema zk rollup [pré-processamento off-chain + verificação on-chain] e propôs uma arquitetura que pode verificar a IA. Especificamente, o modelo de ML é executado off-chain e, além disso, é gerado um zkp para o processo de cálculo de ML off-chain. Através deste zkp, a arquitetura, pesos e entradas (inputs) do modelo off-chain podem ser verificados. Claro, este zkp também pode ser postado na chain para verificação por contratos inteligentes. Neste ponto, a IA e os contratos on-chain podem interagir com mais confiança, ou seja, a “IA on-chain” foi realizada.
Com base na ideia de IA verificável, a Modulus Labs lançou até agora três aplicativos de "IA on-chain" e também propôs muitos cenários de aplicação possíveis.
Além disso, Modulus Labs mencionou alguns outros casos de uso:
Crédito da foto: Modulus Labs
No cenário do bot Rocky, os usuários podem não ser obrigados a verificar o processo de cálculo de ML. Primeiro, os usuários não têm experiência e não têm capacidade para fazer uma verificação real. Mesmo que haja uma ferramenta de verificação, na opinião do usuário, “Eu aperto um botão, a interface aparece para me dizer que este serviço de IA foi realmente gerado por um certo modelo”, e a autenticidade não pode ser determinada. Em segundo lugar, os usuários não precisam verificar, porque eles se importam se o rendimento da IA é alto. Os usuários migram quando a rentabilidade é baixa, e sempre escolhem o modelo que funciona melhor. Em resumo, quando o resultado final da IA é o que o usuário está procurando, o processo de verificação pode não ser significativo, porque o usuário só precisa migrar para o serviço que funciona melhor.
Uma possível solução é que a IA atue apenas como conselheira, e o usuário execute a transação de forma independente. Quando as pessoas inserem seus objetivos de negociação na IA, a IA calcula e retorna um caminho de transação/movimento de negociação off-chain melhor, e o usuário escolhe se o executa. As pessoas também não precisam verificar o modelo por trás disso; elas só precisam escolher o produto com o maior retorno.
Outra situação perigosa, mas altamente provável, é que as pessoas não se importam com seu controle sobre os ativos ou o processo de cálculo de IA. Quando um robô que ganha dinheiro automaticamente aparece, as pessoas até estão dispostas a hospedar dinheiro diretamente nele, assim como colocar tokens em CEX ou bancos tradicionais para gerenciamento financeiro. Porque as pessoas não se importam com os princípios por trás disso; elas só se importam com quanto dinheiro recebem no final, ou até mesmo quanto dinheiro a parte do projeto mostra que ganharam, este tipo de serviço pode ser capaz de adquirir rapidamente um grande número de usuários, e até iterar mais rapidamente do que os produtos do lado do projeto que usam IA verificável.
Dando um passo para trás, se a IA não participa de mudanças de estado on-chain, mas simplesmente raspa dados on-chain e os pré-processa para os usuários, então não há necessidade de gerar ZKP para o processo de cálculo. Aqui estão alguns exemplos deste tipo de aplicação como um “serviço de dados”:
Este artigo argumenta que os cenários envolvendo várias pessoas, envolvendo justiça e privacidade, requerem ZKP para fornecer verificação, e várias das aplicações mencionadas pela Modulus Labs são discutidas aqui:
De maneira geral, quando a IA se assemelha a um tomador de decisões, e sua saída tem uma ampla gama de influência e envolve a equidade de várias partes, então as pessoas exigirão uma revisão do processo de tomada de decisão, ou simplesmente garantir que não haja problemas graves com o processo de tomada de decisão da IA e proteger a privacidade pessoal é uma exigência muito imediata.
Portanto, "se a saída da IA modifica o status on-chain" e "se afeta a justiça/privacidade" são dois critérios para julgar se uma solução de IA verificável é necessária
Crédito da Foto: Kernel Ventures
Em qualquer caso, a solução da Modulus Labs é altamente instrutiva sobre como a IA pode combinar criptografia e trazer valor prático de aplicação. No entanto, o sistema de cadeia pública não apenas aprimora as capacidades dos serviços individuais de IA, mas também tem o potencial de construir um novo ecossistema de aplicativos de IA. Este novo ecossistema trouxe uma relação diferente entre os serviços de IA do que o Web2, a relação entre os serviços de IA e os usuários, e até mesmo a forma como os elos a montante e a jusante colaboram. Podemos resumir os modelos potenciais de ecossistema de aplicativos de IA em dois tipos: modo vertical e modelo horizontal.
O caso de uso de xadrez em cadeia “Leela vs. the World” tem um lugar especial. As pessoas podem fazer apostas em humanos ou IA, e os tokens são distribuídos automaticamente após o fim do jogo. Neste ponto, o significado de zkp não é apenas para os usuários verificarem os cálculos da IA, mas também como uma garantia de confiança para desencadear transições de estado em cadeia. Com a garantia de confiança, pode haver também uma composabilidade ao nível do dapp entre os serviços de IA e entre a IA e os dapps nativos de criptomoeda.
Fonte da imagem: Kernel Ventures, com referência da Modulus Labs
A unidade básica de AI combinável é [modelo ML off-chain - geração zkp - contrato de verificação on-chain - contrato principal]. Esta unidade baseia-se no framework “Leela vs. the World”, mas a arquitetura real de um único dapp de AI pode não ser a mesma que a mostrada na imagem acima. Primeiro, a situação do jogo de xadrez em xadrez requer um contrato, mas na realidade, a AI pode não precisar de um contrato on-chain. No entanto, no que diz respeito à arquitetura de AI combinável, se o negócio principal for registrado através de contratos, pode ser mais conveniente para outros dapps combiná-lo. Em segundo lugar, o contrato principal não necessariamente precisa afetar o modelo ML do próprio dapp de AI, porque um dapp de AI pode ter um efeito unidirecional. Depois que o modelo ML é processado, é suficiente acionar um contrato relacionado ao seu próprio negócio, e o contrato será chamado por outros dapps.
Extensivamente, chamadas entre contratos são chamadas entre diferentes aplicações web3. São chamadas para identidade pessoal, ativos, serviços financeiros e até informações sociais. Podemos imaginar uma combinação específica de aplicações de IA:
A interação entre a IA no framework da cadeia pública não é algo que não tenha sido discutido. Loaf, um contribuinte para o ecossistema Realms de jogos de cadeia completa, propôs que os NPCs de IA possam negociar entre si como jogadores, para que todo o sistema econômico possa se otimizar e operar automaticamente. A AI Arena desenvolveu um jogo de batalha automatizado de IA. Os usuários primeiro compram um NFT. Um NFT representa um robô de batalha, e um modelo de IA está por trás dele. Os usuários primeiro jogam jogos por conta própria, depois passam os dados para a IA para aprendizado simulado. Quando os usuários sentem que a IA está forte o suficiente, eles podem jogar automaticamente contra outras AIs na arena. A Modulus Labs mencionou que a AI Arena quer transformar toda essa IA em IA verificável. Ambos os casos viram a possibilidade de a IA interagir entre si e modificar diretamente os dados on-chain conforme interagiam.
No entanto, ainda há muitas questões a serem discutidas na implementação específica da IA combinável, como diferentes dapps podem usar zkp uns dos outros ou verificar contratos. No entanto, também existem muitos excelentes projetos no campo zk. Por exemplo, RISC Zero fez muito progresso na realização de cálculos complexos off-chain e liberando zkp para a chain. Talvez um dia seja possível reunir uma solução apropriada.
2.2 Modelo horizontal: plataformas de serviços de IA que se concentram na descentralização
Nesse sentido, apresentamos principalmente uma plataforma de IA descentralizada chamada SAKSHI, que foi proposta em conjunto por pessoas da Universidade de Princeton, da Universidade Tsinghua, da Universidade de Illinois em Urbana-Champaign, da Universidade de Ciência e Tecnologia de Hong Kong, Witness Chain e Eigen Layer. Seu objetivo principal é permitir que os usuários acessem serviços de IA de maneira mais descentralizada, tornando todo o processo mais confiável e automatizado.
Crédito da foto: SAKSHI
A estrutura da SAKSHI pode ser dividida em seis camadas: camada de serviço (camada de serviço), camada de controle (camada de controle), camada de transação (camada de tradução), camada de prova (camada de prova), camada econômica (camada econômica) e camada de mercado (Marketplace)
O mercado é o nível mais próximo do usuário. Existem agregadores no mercado para fornecer serviços aos usuários em nome de diferentes provedores de IA. Os usuários realizam pedidos por meio de agregadores e chegam a acordos com os agregadores sobre qualidade de serviço e preços de pagamento (os acordos são chamados de SLA - acordos de nível de serviço).
A seguir, a camada de serviço fornece uma API para o lado do cliente, então o cliente faz uma solicitação de inferência de ML para o agregador, e a solicitação é enviada a um servidor usado para combinar o provedor de serviços de IA (a rota usada para transmitir a solicitação faz parte da camada de controle). Portanto, a camada de serviço e a camada de controle são semelhantes a um serviço com vários servidores web2, mas os servidores diferentes são operados por entidades diferentes, e cada servidor é vinculado por meio de um SLA (acordo de serviço previamente assinado) e um agregador.
SLAs são implantados na cadeia na forma de contratos inteligentes, todos os quais pertencem à camada de transação (nota: nesta solução, eles são implantados na Witness Chain). A camada de transação também registra o status atual de um pedido de serviço e é usada para coordenar usuários, agregadores e provedores de serviços para lidar com disputas de pagamento.
Para que a camada de transação tenha evidências para se apoiar ao lidar com disputas, a camada de prova (Camada de Prova) verificará se o provedor de serviços utiliza o modelo conforme acordado no SLA. No entanto, SAKSHI não optou por gerar zkp para o processo de cálculo de ML, mas em vez disso, utilizou a ideia de prova otimista, esperando estabelecer uma rede de nós desafiantes para testar o serviço. Os incentivos de nó são suportados pela Witness Chain.
Embora a SLA e a rede de nós desafiadores estejam na cadeia de testemunhas, no plano da SAKSHI, a cadeia de testemunhas não pretende usar seus incentivos de token nativo para alcançar segurança independente, mas sim usa a segurança do Ethereum através da Eigen Layer, então toda a economia na verdade depende da Eigen Layer.
Como pode ser visto, SAKSHI está entre os provedores de serviços de IA e os usuários, e organiza diferentes IAs de forma descentralizada para fornecer serviços aos usuários. Isso se parece mais com uma solução horizontal. O cerne do SAKSHI é permitir que os provedores de serviços de IA se concentrem mais em gerenciar seus próprios cálculos de modelos off-chain, correspondendo às necessidades dos usuários com serviços de modelo, pagamento dos serviços e verificação da qualidade do serviço por meio de acordos on-chain, e tentando resolver automaticamente disputas de pagamento. Claro, no momento, o SAKSHI ainda está na fase teórica e há também muitos detalhes de implementação que valem a pena determinar.
Seja AI combinável ou plataformas de AI descentralizadas, o modelo de ecossistema de AI baseado na cadeia pública parece ter algo em comum. Por exemplo, os provedores de serviços de AI não se conectam diretamente com os usuários; eles só precisam fornecer modelos de ML e realizar cálculos off-chain. Pagamentos, resolução de disputas e coordenação entre as necessidades do usuário e os serviços podem ser resolvidos por meio de acordos descentralizados. Como uma infraestrutura sem confiança, a cadeia pública reduz o atrito entre provedores de serviços e usuários, e os usuários também têm maior autonomia neste momento.
Embora as vantagens de usar a cadeia pública como uma base de aplicação sejam clichês, é verdade que isso também se aplica aos serviços de IA. No entanto, a diferença entre os aplicativos de IA e os aplicativos dapp existentes é que os aplicativos de IA não podem colocar toda a computação na cadeia, portanto, é necessário usar zk ou prova otimista para conectar os serviços de IA ao sistema da cadeia pública de maneira mais confiável.
Com a implementação de uma série de soluções de otimização da experiência, como a abstração de contas, os usuários podem não ser capazes de perceber a existência de mnemônicos, cadeias e gás. Isso aproxima o ecossistema de cadeias públicas do web2 em termos de experiência, enquanto os usuários podem obter um grau maior de liberdade e composabilidade do que os serviços web2. Isso será muito atraente para os usuários. O ecossistema de aplicativos de IA baseado na cadeia pública vale a pena esperar.
Kernel Ventures é um fundo de capital de risco de criptomoeda impulsionado por uma comunidade de pesquisa e desenvolvimento com mais de 70 investimentos em estágio inicial, focando em infraestrutura, middleware, dApps, especialmente ZK, Rollup, DEX, blockchains modulares e verticais que hospedarão os próximos bilhões de usuários de criptomoedas, como abstração de contas, disponibilidade de dados, escalabilidade, etc. Nos últimos sete anos, temos nos comprometido a apoiar o desenvolvimento de comunidades de desenvolvimento de núcleo e associações universitárias de blockchain ao redor do mundo.
Aviso Legal:
Se a IA verificável é necessária depende de: se os dados on-chain são modificados e se a justiça e a privacidade estão envolvidas
Ecossistema de aplicativos de IA vertical: Como um dos extremos da IA verificável é um contrato inteligente, aplicativos de IA verificáveis e até mesmo aplicativos de IA e dapps nativos podem ser capazes de se utilizar mutuamente sem confiança. Este é um potencial ecossistema de aplicativos de IA componíveis
Modulus Labs é uma empresa de IA “on-chain” que acredita que a IA pode melhorar significativamente as capacidades dos contratos inteligentes e tornar as aplicações web3 mais poderosas. No entanto, há uma contradição quando a IA é aplicada ao web3, ou seja, a IA requer uma grande quantidade de potência de computação para operar, e a IA é uma caixa preta para computação off-chain. Isso não atende aos requisitos básicos do web3 de ser sem confiança e verificável.
Portanto, a Modulus Labs baseou-se no esquema zk rollup [pré-processamento off-chain + verificação on-chain] e propôs uma arquitetura que pode verificar a IA. Especificamente, o modelo de ML é executado off-chain e, além disso, é gerado um zkp para o processo de cálculo de ML off-chain. Através deste zkp, a arquitetura, pesos e entradas (inputs) do modelo off-chain podem ser verificados. Claro, este zkp também pode ser postado na chain para verificação por contratos inteligentes. Neste ponto, a IA e os contratos on-chain podem interagir com mais confiança, ou seja, a “IA on-chain” foi realizada.
Com base na ideia de IA verificável, a Modulus Labs lançou até agora três aplicativos de "IA on-chain" e também propôs muitos cenários de aplicação possíveis.
Além disso, Modulus Labs mencionou alguns outros casos de uso:
Crédito da foto: Modulus Labs
No cenário do bot Rocky, os usuários podem não ser obrigados a verificar o processo de cálculo de ML. Primeiro, os usuários não têm experiência e não têm capacidade para fazer uma verificação real. Mesmo que haja uma ferramenta de verificação, na opinião do usuário, “Eu aperto um botão, a interface aparece para me dizer que este serviço de IA foi realmente gerado por um certo modelo”, e a autenticidade não pode ser determinada. Em segundo lugar, os usuários não precisam verificar, porque eles se importam se o rendimento da IA é alto. Os usuários migram quando a rentabilidade é baixa, e sempre escolhem o modelo que funciona melhor. Em resumo, quando o resultado final da IA é o que o usuário está procurando, o processo de verificação pode não ser significativo, porque o usuário só precisa migrar para o serviço que funciona melhor.
Uma possível solução é que a IA atue apenas como conselheira, e o usuário execute a transação de forma independente. Quando as pessoas inserem seus objetivos de negociação na IA, a IA calcula e retorna um caminho de transação/movimento de negociação off-chain melhor, e o usuário escolhe se o executa. As pessoas também não precisam verificar o modelo por trás disso; elas só precisam escolher o produto com o maior retorno.
Outra situação perigosa, mas altamente provável, é que as pessoas não se importam com seu controle sobre os ativos ou o processo de cálculo de IA. Quando um robô que ganha dinheiro automaticamente aparece, as pessoas até estão dispostas a hospedar dinheiro diretamente nele, assim como colocar tokens em CEX ou bancos tradicionais para gerenciamento financeiro. Porque as pessoas não se importam com os princípios por trás disso; elas só se importam com quanto dinheiro recebem no final, ou até mesmo quanto dinheiro a parte do projeto mostra que ganharam, este tipo de serviço pode ser capaz de adquirir rapidamente um grande número de usuários, e até iterar mais rapidamente do que os produtos do lado do projeto que usam IA verificável.
Dando um passo para trás, se a IA não participa de mudanças de estado on-chain, mas simplesmente raspa dados on-chain e os pré-processa para os usuários, então não há necessidade de gerar ZKP para o processo de cálculo. Aqui estão alguns exemplos deste tipo de aplicação como um “serviço de dados”:
Este artigo argumenta que os cenários envolvendo várias pessoas, envolvendo justiça e privacidade, requerem ZKP para fornecer verificação, e várias das aplicações mencionadas pela Modulus Labs são discutidas aqui:
De maneira geral, quando a IA se assemelha a um tomador de decisões, e sua saída tem uma ampla gama de influência e envolve a equidade de várias partes, então as pessoas exigirão uma revisão do processo de tomada de decisão, ou simplesmente garantir que não haja problemas graves com o processo de tomada de decisão da IA e proteger a privacidade pessoal é uma exigência muito imediata.
Portanto, "se a saída da IA modifica o status on-chain" e "se afeta a justiça/privacidade" são dois critérios para julgar se uma solução de IA verificável é necessária
Crédito da Foto: Kernel Ventures
Em qualquer caso, a solução da Modulus Labs é altamente instrutiva sobre como a IA pode combinar criptografia e trazer valor prático de aplicação. No entanto, o sistema de cadeia pública não apenas aprimora as capacidades dos serviços individuais de IA, mas também tem o potencial de construir um novo ecossistema de aplicativos de IA. Este novo ecossistema trouxe uma relação diferente entre os serviços de IA do que o Web2, a relação entre os serviços de IA e os usuários, e até mesmo a forma como os elos a montante e a jusante colaboram. Podemos resumir os modelos potenciais de ecossistema de aplicativos de IA em dois tipos: modo vertical e modelo horizontal.
O caso de uso de xadrez em cadeia “Leela vs. the World” tem um lugar especial. As pessoas podem fazer apostas em humanos ou IA, e os tokens são distribuídos automaticamente após o fim do jogo. Neste ponto, o significado de zkp não é apenas para os usuários verificarem os cálculos da IA, mas também como uma garantia de confiança para desencadear transições de estado em cadeia. Com a garantia de confiança, pode haver também uma composabilidade ao nível do dapp entre os serviços de IA e entre a IA e os dapps nativos de criptomoeda.
Fonte da imagem: Kernel Ventures, com referência da Modulus Labs
A unidade básica de AI combinável é [modelo ML off-chain - geração zkp - contrato de verificação on-chain - contrato principal]. Esta unidade baseia-se no framework “Leela vs. the World”, mas a arquitetura real de um único dapp de AI pode não ser a mesma que a mostrada na imagem acima. Primeiro, a situação do jogo de xadrez em xadrez requer um contrato, mas na realidade, a AI pode não precisar de um contrato on-chain. No entanto, no que diz respeito à arquitetura de AI combinável, se o negócio principal for registrado através de contratos, pode ser mais conveniente para outros dapps combiná-lo. Em segundo lugar, o contrato principal não necessariamente precisa afetar o modelo ML do próprio dapp de AI, porque um dapp de AI pode ter um efeito unidirecional. Depois que o modelo ML é processado, é suficiente acionar um contrato relacionado ao seu próprio negócio, e o contrato será chamado por outros dapps.
Extensivamente, chamadas entre contratos são chamadas entre diferentes aplicações web3. São chamadas para identidade pessoal, ativos, serviços financeiros e até informações sociais. Podemos imaginar uma combinação específica de aplicações de IA:
A interação entre a IA no framework da cadeia pública não é algo que não tenha sido discutido. Loaf, um contribuinte para o ecossistema Realms de jogos de cadeia completa, propôs que os NPCs de IA possam negociar entre si como jogadores, para que todo o sistema econômico possa se otimizar e operar automaticamente. A AI Arena desenvolveu um jogo de batalha automatizado de IA. Os usuários primeiro compram um NFT. Um NFT representa um robô de batalha, e um modelo de IA está por trás dele. Os usuários primeiro jogam jogos por conta própria, depois passam os dados para a IA para aprendizado simulado. Quando os usuários sentem que a IA está forte o suficiente, eles podem jogar automaticamente contra outras AIs na arena. A Modulus Labs mencionou que a AI Arena quer transformar toda essa IA em IA verificável. Ambos os casos viram a possibilidade de a IA interagir entre si e modificar diretamente os dados on-chain conforme interagiam.
No entanto, ainda há muitas questões a serem discutidas na implementação específica da IA combinável, como diferentes dapps podem usar zkp uns dos outros ou verificar contratos. No entanto, também existem muitos excelentes projetos no campo zk. Por exemplo, RISC Zero fez muito progresso na realização de cálculos complexos off-chain e liberando zkp para a chain. Talvez um dia seja possível reunir uma solução apropriada.
2.2 Modelo horizontal: plataformas de serviços de IA que se concentram na descentralização
Nesse sentido, apresentamos principalmente uma plataforma de IA descentralizada chamada SAKSHI, que foi proposta em conjunto por pessoas da Universidade de Princeton, da Universidade Tsinghua, da Universidade de Illinois em Urbana-Champaign, da Universidade de Ciência e Tecnologia de Hong Kong, Witness Chain e Eigen Layer. Seu objetivo principal é permitir que os usuários acessem serviços de IA de maneira mais descentralizada, tornando todo o processo mais confiável e automatizado.
Crédito da foto: SAKSHI
A estrutura da SAKSHI pode ser dividida em seis camadas: camada de serviço (camada de serviço), camada de controle (camada de controle), camada de transação (camada de tradução), camada de prova (camada de prova), camada econômica (camada econômica) e camada de mercado (Marketplace)
O mercado é o nível mais próximo do usuário. Existem agregadores no mercado para fornecer serviços aos usuários em nome de diferentes provedores de IA. Os usuários realizam pedidos por meio de agregadores e chegam a acordos com os agregadores sobre qualidade de serviço e preços de pagamento (os acordos são chamados de SLA - acordos de nível de serviço).
A seguir, a camada de serviço fornece uma API para o lado do cliente, então o cliente faz uma solicitação de inferência de ML para o agregador, e a solicitação é enviada a um servidor usado para combinar o provedor de serviços de IA (a rota usada para transmitir a solicitação faz parte da camada de controle). Portanto, a camada de serviço e a camada de controle são semelhantes a um serviço com vários servidores web2, mas os servidores diferentes são operados por entidades diferentes, e cada servidor é vinculado por meio de um SLA (acordo de serviço previamente assinado) e um agregador.
SLAs são implantados na cadeia na forma de contratos inteligentes, todos os quais pertencem à camada de transação (nota: nesta solução, eles são implantados na Witness Chain). A camada de transação também registra o status atual de um pedido de serviço e é usada para coordenar usuários, agregadores e provedores de serviços para lidar com disputas de pagamento.
Para que a camada de transação tenha evidências para se apoiar ao lidar com disputas, a camada de prova (Camada de Prova) verificará se o provedor de serviços utiliza o modelo conforme acordado no SLA. No entanto, SAKSHI não optou por gerar zkp para o processo de cálculo de ML, mas em vez disso, utilizou a ideia de prova otimista, esperando estabelecer uma rede de nós desafiantes para testar o serviço. Os incentivos de nó são suportados pela Witness Chain.
Embora a SLA e a rede de nós desafiadores estejam na cadeia de testemunhas, no plano da SAKSHI, a cadeia de testemunhas não pretende usar seus incentivos de token nativo para alcançar segurança independente, mas sim usa a segurança do Ethereum através da Eigen Layer, então toda a economia na verdade depende da Eigen Layer.
Como pode ser visto, SAKSHI está entre os provedores de serviços de IA e os usuários, e organiza diferentes IAs de forma descentralizada para fornecer serviços aos usuários. Isso se parece mais com uma solução horizontal. O cerne do SAKSHI é permitir que os provedores de serviços de IA se concentrem mais em gerenciar seus próprios cálculos de modelos off-chain, correspondendo às necessidades dos usuários com serviços de modelo, pagamento dos serviços e verificação da qualidade do serviço por meio de acordos on-chain, e tentando resolver automaticamente disputas de pagamento. Claro, no momento, o SAKSHI ainda está na fase teórica e há também muitos detalhes de implementação que valem a pena determinar.
Seja AI combinável ou plataformas de AI descentralizadas, o modelo de ecossistema de AI baseado na cadeia pública parece ter algo em comum. Por exemplo, os provedores de serviços de AI não se conectam diretamente com os usuários; eles só precisam fornecer modelos de ML e realizar cálculos off-chain. Pagamentos, resolução de disputas e coordenação entre as necessidades do usuário e os serviços podem ser resolvidos por meio de acordos descentralizados. Como uma infraestrutura sem confiança, a cadeia pública reduz o atrito entre provedores de serviços e usuários, e os usuários também têm maior autonomia neste momento.
Embora as vantagens de usar a cadeia pública como uma base de aplicação sejam clichês, é verdade que isso também se aplica aos serviços de IA. No entanto, a diferença entre os aplicativos de IA e os aplicativos dapp existentes é que os aplicativos de IA não podem colocar toda a computação na cadeia, portanto, é necessário usar zk ou prova otimista para conectar os serviços de IA ao sistema da cadeia pública de maneira mais confiável.
Com a implementação de uma série de soluções de otimização da experiência, como a abstração de contas, os usuários podem não ser capazes de perceber a existência de mnemônicos, cadeias e gás. Isso aproxima o ecossistema de cadeias públicas do web2 em termos de experiência, enquanto os usuários podem obter um grau maior de liberdade e composabilidade do que os serviços web2. Isso será muito atraente para os usuários. O ecossistema de aplicativos de IA baseado na cadeia pública vale a pena esperar.
Kernel Ventures é um fundo de capital de risco de criptomoeda impulsionado por uma comunidade de pesquisa e desenvolvimento com mais de 70 investimentos em estágio inicial, focando em infraestrutura, middleware, dApps, especialmente ZK, Rollup, DEX, blockchains modulares e verticais que hospedarão os próximos bilhões de usuários de criptomoedas, como abstração de contas, disponibilidade de dados, escalabilidade, etc. Nos últimos sete anos, temos nos comprometido a apoiar o desenvolvimento de comunidades de desenvolvimento de núcleo e associações universitárias de blockchain ao redor do mundo.
Aviso Legal: