Se a IA verificável é necessária depende de: se os dados on-chain são modificados e se a equidade e a privacidade estão envolvidas
Ecossistema de aplicações de IA vertical: uma vez que uma extremidade da IA verificável é um contrato inteligente, as aplicações de IA verificáveis e até mesmo as dapps de IA nativas podem ser capazes de se utilizar mutuamente sem confiança. Este é um potencial ecossistema de aplicações de IA componíveis
Modulus Labs é uma empresa de IA “on-chain” que acredita que a IA pode melhorar significativamente as capacidades dos contratos inteligentes e tornar as aplicações web3 mais poderosas. No entanto, existe uma contradição quando a IA é aplicada ao web3, ou seja, a IA requer uma grande quantidade de potência de computação para funcionar, e a IA é uma caixa-preta para computação off-chain. Isso não cumpre os requisitos básicos do web3 para ser trustless e verificável.
Portanto, a Modulus Labs baseou-se no esquema zk rollup [pré-processamento off-chain+verificação on-chain] e propôs uma arquitetura que pode verificar a IA. Especificamente, o modelo de ML é executado off-chain e, além disso, é gerado um zkp para o processo de cálculo de ML off-chain. Através deste zkp, a arquitetura, pesos e entradas (inputs) do modelo off-chain podem ser verificados. Claro, este zkp também pode ser postado na chain para verificação por contratos inteligentes. Neste ponto, a IA e os contratos on-chain podem interagir com mais confiança, ou seja, foi realizado o “AI on-chain”.
Com base na ideia de IA verificável, a Modulus Labs lançou até agora três aplicações de "IA on-chain" e também propôs muitos cenários de aplicação possíveis.
Além disso, a Modulus Labs mencionou alguns outros casos de uso:
Crédito da foto: Modulus Labs
No cenário do bot Rocky, os utilizadores podem não ser obrigados a verificar o processo de cálculo de ML. Em primeiro lugar, os utilizadores não têm experiência nem capacidade para fazer uma verificação real. Mesmo que exista uma ferramenta de verificação, na opinião do utilizador, "pressiono um botão, a interface aparece a dizer-me que este serviço de IA foi realmente gerado por um certo modelo", e a autenticidade não pode ser determinada. Em segundo lugar, os utilizadores não precisam de verificar, porque se preocupam se o rendimento da IA é elevado. Os utilizadores migram quando a rentabilidade é baixa e escolhem sempre o modelo que funciona melhor. Em resumo, quando o resultado final da IA é o que o utilizador procura, o processo de verificação pode não ser significativo porque o utilizador só precisa de migrar para o serviço que funciona melhor.
Uma possível solução é que a IA apenas atue como consultora, e o utilizador execute a transação de forma independente. Quando as pessoas inserem os seus objetivos de negociação na IA, a IA calcula e devolve um melhor caminho de transação/direção de negociação off-chain, e o utilizador escolhe se a executa. As pessoas também não precisam de verificar o modelo por trás disso; apenas precisam de escolher o produto com o maior retorno.
Outra situação perigosa, mas altamente provável, é que as pessoas não se importam com o controle sobre os ativos ou o processo de cálculo de IA. Quando um robô que ganha dinheiro automaticamente aparece, as pessoas estão até dispostas a hospedar dinheiro diretamente nele, assim como colocar tokens em CEX ou bancos tradicionais para gestão financeira. Porque as pessoas não se importam com os princípios por trás disso; elas só se importam com quanto dinheiro recebem no final, ou até mesmo quanto dinheiro a parte do projeto mostra que ganham, esse tipo de serviço pode ser capaz de adquirir rapidamente um grande número de usuários, e até iterar mais rápido do que produtos do lado do projeto que usam IA verificável.
Dando um passo atrás, se a IA não participar de nenhuma alteração de estado on-chain, mas simplesmente raspar dados on-chain e pré-processá-los para os utilizadores, então não há necessidade de gerar ZKP para o processo de cálculo. Aqui estão alguns exemplos deste tipo de aplicação como um “serviço de dados”:
Este artigo defende que cenários envolvendo várias pessoas, envolvendo justiça e privacidade, requerem ZKP para fornecer verificação, e várias das aplicações mencionadas pela Modulus Labs são discutidas aqui:
Em geral, quando a IA é semelhante a um tomador de decisões, e a sua saída tem uma ampla gama de influência e envolve equidade de várias partes, as pessoas exigirão uma revisão do processo de tomada de decisão, ou simplesmente garantir que não existam problemas importantes com o processo de tomada de decisão da IA, e proteger a privacidade pessoal é uma exigência muito imediata.
Portanto, “se a saída de IA modifica o estado on-chain” e “se afeta a equidade/privacidade” são dois critérios para julgar se uma solução de IA verificável é necessária
Crédito da Foto: Kernel Ventures
De qualquer forma, a solução da Modulus Labs é altamente instrutiva sobre como a IA pode combinar criptografia e trazer valor prático à aplicação. No entanto, o sistema de cadeia pública não só melhora as capacidades dos serviços individuais de IA, mas também tem o potencial de construir um novo ecossistema de aplicação de IA. Este novo ecossistema trouxe uma relação diferente entre os serviços de IA do que o Web2, a relação entre os serviços de IA e os utilizadores, e até a forma como os elos a montante e a jusante colaboram. Podemos resumir os modelos potenciais do ecossistema de aplicação de IA em dois tipos: modo vertical e modelo horizontal.
O caso de uso de xadrez em cadeia “Leela vs. the World” tem um lugar especial. As pessoas podem apostar em humanos ou IA, e os tokens são distribuídos automaticamente após o fim do jogo. Neste ponto, o significado de zkp não é apenas para os utilizadores verificarem os cálculos da IA, mas também como uma garantia de confiança para desencadear transições de estado em cadeia. Com a garantia de confiança, pode também haver composabilidade ao nível da dapp entre os serviços de IA e entre IA e dapps nativas de criptografia.
Fonte da imagem: Kernel Ventures, com referência da Modulus Labs
A unidade básica de IA combinável é [modelo de ML fora da cadeia - geração de zkp - contrato de verificação na cadeia - contrato principal]. Esta unidade baseia-se no quadro 'Leela vs. the World', mas a arquitetura real de um único dapp de IA pode não ser a mesma que a mostrada na imagem acima. Em primeiro lugar, a situação do jogo de xadrez no xadrez requer um contrato, mas na realidade, a IA pode não necessitar de um contrato na cadeia. No entanto, no que diz respeito à arquitetura da IA combinável, se o negócio principal for registado através de contratos, pode ser mais conveniente para outros dapps combinarem com ele. Em segundo lugar, o contrato principal não necessita necessariamente de afetar o modelo de ML do dapp de IA em si, porque um dapp de IA pode ter um efeito unidirecional. Depois do modelo de ML ser processado, é suficiente acionar um contrato relacionado com o seu próprio negócio, e o contrato será chamado por outros dapps.
Amplamente, as chamadas entre contratos são chamadas entre diferentes aplicações web3. São chamadas para identidade pessoal, ativos, serviços financeiros e até informações sociais. Podemos imaginar uma combinação específica de aplicações de IA:
A interação entre a IA no quadro da cadeia pública não é algo que não tenha sido discutido. Loaf, um contribuidor para o ecossistema Realms de jogos de cadeia completa, propôs que NPCs de IA possam negociar entre si como jogadores, para que todo o sistema econômico possa otimizar-se e operar automaticamente. A Arena de IA desenvolveu um jogo de batalha automatizado de IA. Os utilizadores compram primeiro um NFT. Um NFT representa um robô de batalha, e por trás está um modelo de IA. Os utilizadores jogam primeiro jogos por conta própria, depois entregam os dados à IA para aprendizagem simulada. Quando os utilizadores sentem que a IA é suficientemente forte, podem jogar automaticamente contra outras IAs na arena. A Modulus Labs mencionou que a Arena de IA quer transformar toda esta IA em IA verificável. Ambos os casos viram a possibilidade de interação entre IA e modificação de dados on-chain diretamente à medida que interagiam.
No entanto, ainda existem muitas questões a serem discutidas na implementação específica de IA combinável, como diferentes dapps podem usar os zkps uns dos outros ou verificar contratos. No entanto, também existem muitos projetos excelentes no campo zk. Por exemplo, a RISC Zero fez muitos progressos na realização de cálculos complexos off-chain e libertando zkps para a chain. Talvez um dia seja possível reunir uma solução adequada.
2.2 Modelo horizontal: plataformas de serviços de IA que se concentram na descentralização
Neste sentido, apresentamos principalmente uma plataforma de IA descentralizada chamada SAKSHI, que foi proposta em conjunto por pessoas da Universidade de Princeton, Universidade Tsinghua, Universidade de Illinois em Urbana-Champaign, Universidade de Ciência e Tecnologia de Hong Kong, Witness Chain e Eigen Layer. Seu objetivo principal é permitir que os usuários acessem serviços de IA de forma mais descentralizada, tornando todo o processo mais confiável e automatizado.
Crédito da Foto: SAKSHI
A estrutura da SAKSHI pode ser dividida em seis camadas: camada de serviço (camada de serviço), camada de controle (camada de controle), camada de transação (camada de transação), camada de prova (camada de prova), camada econômica (camada econômica) e camada de mercado (Marketplace)
O mercado é o nível mais próximo do utilizador. Existem agregadores no mercado para fornecer serviços aos utilizadores em nome de diferentes fornecedores de IA. Os utilizadores fazem pedidos através dos agregadores e chegam a acordos com os agregadores sobre a qualidade do serviço e os preços de pagamento (os acordos são chamados de acordos de nível de serviço - SLA).
A seguir, a camada de serviço fornece uma API para o lado do cliente, depois o cliente faz um pedido de inferência de ML para o agregador, e o pedido é enviado a um servidor usado para corresponder ao fornecedor de serviços de IA (a rota usada para transmitir o pedido faz parte da camada de controlo). Portanto, a camada de serviço e a camada de controlo são semelhantes a um serviço com vários servidores web2, mas os servidores diferentes são operados por entidades diferentes, e cada servidor está ligado através de um SLA (acordo de serviço previamente assinado) e um agregador.
SLAs são implementados na cadeia na forma de contratos inteligentes, todos os quais pertencem à camada de transação (nota: nesta solução, eles são implementados na Cadeia de Testemunhas). A camada de transação também regista o estado atual de um pedido de serviço e é usada para coordenar utilizadores, agregadores e fornecedores de serviços para lidar com disputas de pagamento.
Para que a camada de transação tenha evidências em que confiar ao lidar com disputas, a camada de prova (Camada de Prova) verificará se o provedor de serviços usa o modelo conforme acordado no SLA. No entanto, o SAKSHI não optou por gerar zkp para o processo de cálculo de ML, mas sim utilizou a ideia de prova otimista, esperando estabelecer uma rede de nós desafiadores para testar o serviço. Os incentivos dos nós são suportados pela Cadeia de Testemunhas.
Embora o SLA e a rede de nós desafiadores estejam na Witness Chain, no plano da SAKSHI, a Witness Chain não planeia usar os seus incentivos de token nativos para alcançar segurança independente, mas sim utiliza a segurança do Ethereum através da Eigen Layer, pelo que toda a economia na realidade depende da Eigen Layer.
Como se pode ver, SAKSHI está entre os fornecedores de serviços de IA e os utilizadores, e organiza diferentes IAs de forma descentralizada para fornecer serviços aos utilizadores. Isto é mais semelhante a uma solução horizontal. O cerne do SAKSHI é permitir que os fornecedores de serviços de IA se concentrem mais na gestão dos seus próprios cálculos de modelos off-chain, correspondendo as necessidades dos utilizadores com os serviços de modelos, pagamento de serviços e verificação da qualidade do serviço através de acordos on-chain, e tentando resolver automaticamente disputas de pagamento. Claro, neste momento o SAKSHI ainda está na fase teórica, e há também muitos detalhes de implementação que valem a pena determinar.
Quer se trate de IA combinável ou de plataformas de IA descentralizadas, o modelo de ecossistema de IA baseado na cadeia pública parece ter algo em comum. Por exemplo, os fornecedores de serviços de IA não se conectam diretamente com os utilizadores; eles apenas precisam de fornecer modelos de ML e realizar cálculos off-chain. Pagamentos, resolução de disputas e coordenação entre as necessidades dos utilizadores e os serviços podem ser resolvidos por acordos descentralizados. Como uma infraestrutura sem confiança, a cadeia pública reduz o atrito entre os fornecedores de serviços e os utilizadores, e os utilizadores também têm maior autonomia neste momento.
Embora as vantagens de usar a cadeia pública como base de aplicação sejam clichês, é verdade que também se aplica aos serviços de IA. No entanto, a diferença entre as aplicações de IA e as aplicações dapp existentes é que as aplicações de IA não podem colocar todas as computações na cadeia, portanto, é necessário usar zk ou prova otimista para conectar os serviços de IA ao sistema de cadeia pública de maneira mais confiável.
Com a implementação de uma série de soluções de otimização de experiência, como a abstração de conta, os utilizadores podem não ser capazes de sentir a existência de mnemónicas, cadeias e gás. Isto aproxima o ecossistema da cadeia pública do web2 em termos de experiência, enquanto os utilizadores podem obter um maior grau de liberdade e composição do que os serviços web2. Isto será muito atraente para os utilizadores. O ecossistema de aplicação de IA baseado na cadeia pública é digno de antecipação.
A Kernel Ventures é um fundo de capital de risco criptográfico impulsionado por uma comunidade de pesquisa e desenvolvimento com mais de 70 investimentos em estágios iniciais focados em infraestrutura, middleware, dApps, especialmente ZK, Rollup, DEX, blockchains modulares e verticais que hospedarão os próximos bilhões de utilizadores de criptomoedas, como a abstração de contas, disponibilidade de dados, escalabilidade, etc. Nos últimos sete anos, temos estado empenhados em apoiar o desenvolvimento de comunidades de desenvolvimento de núcleo e associações universitárias de blockchain em todo o mundo.
Aviso Legal:
Se a IA verificável é necessária depende de: se os dados on-chain são modificados e se a equidade e a privacidade estão envolvidas
Ecossistema de aplicações de IA vertical: uma vez que uma extremidade da IA verificável é um contrato inteligente, as aplicações de IA verificáveis e até mesmo as dapps de IA nativas podem ser capazes de se utilizar mutuamente sem confiança. Este é um potencial ecossistema de aplicações de IA componíveis
Modulus Labs é uma empresa de IA “on-chain” que acredita que a IA pode melhorar significativamente as capacidades dos contratos inteligentes e tornar as aplicações web3 mais poderosas. No entanto, existe uma contradição quando a IA é aplicada ao web3, ou seja, a IA requer uma grande quantidade de potência de computação para funcionar, e a IA é uma caixa-preta para computação off-chain. Isso não cumpre os requisitos básicos do web3 para ser trustless e verificável.
Portanto, a Modulus Labs baseou-se no esquema zk rollup [pré-processamento off-chain+verificação on-chain] e propôs uma arquitetura que pode verificar a IA. Especificamente, o modelo de ML é executado off-chain e, além disso, é gerado um zkp para o processo de cálculo de ML off-chain. Através deste zkp, a arquitetura, pesos e entradas (inputs) do modelo off-chain podem ser verificados. Claro, este zkp também pode ser postado na chain para verificação por contratos inteligentes. Neste ponto, a IA e os contratos on-chain podem interagir com mais confiança, ou seja, foi realizado o “AI on-chain”.
Com base na ideia de IA verificável, a Modulus Labs lançou até agora três aplicações de "IA on-chain" e também propôs muitos cenários de aplicação possíveis.
Além disso, a Modulus Labs mencionou alguns outros casos de uso:
Crédito da foto: Modulus Labs
No cenário do bot Rocky, os utilizadores podem não ser obrigados a verificar o processo de cálculo de ML. Em primeiro lugar, os utilizadores não têm experiência nem capacidade para fazer uma verificação real. Mesmo que exista uma ferramenta de verificação, na opinião do utilizador, "pressiono um botão, a interface aparece a dizer-me que este serviço de IA foi realmente gerado por um certo modelo", e a autenticidade não pode ser determinada. Em segundo lugar, os utilizadores não precisam de verificar, porque se preocupam se o rendimento da IA é elevado. Os utilizadores migram quando a rentabilidade é baixa e escolhem sempre o modelo que funciona melhor. Em resumo, quando o resultado final da IA é o que o utilizador procura, o processo de verificação pode não ser significativo porque o utilizador só precisa de migrar para o serviço que funciona melhor.
Uma possível solução é que a IA apenas atue como consultora, e o utilizador execute a transação de forma independente. Quando as pessoas inserem os seus objetivos de negociação na IA, a IA calcula e devolve um melhor caminho de transação/direção de negociação off-chain, e o utilizador escolhe se a executa. As pessoas também não precisam de verificar o modelo por trás disso; apenas precisam de escolher o produto com o maior retorno.
Outra situação perigosa, mas altamente provável, é que as pessoas não se importam com o controle sobre os ativos ou o processo de cálculo de IA. Quando um robô que ganha dinheiro automaticamente aparece, as pessoas estão até dispostas a hospedar dinheiro diretamente nele, assim como colocar tokens em CEX ou bancos tradicionais para gestão financeira. Porque as pessoas não se importam com os princípios por trás disso; elas só se importam com quanto dinheiro recebem no final, ou até mesmo quanto dinheiro a parte do projeto mostra que ganham, esse tipo de serviço pode ser capaz de adquirir rapidamente um grande número de usuários, e até iterar mais rápido do que produtos do lado do projeto que usam IA verificável.
Dando um passo atrás, se a IA não participar de nenhuma alteração de estado on-chain, mas simplesmente raspar dados on-chain e pré-processá-los para os utilizadores, então não há necessidade de gerar ZKP para o processo de cálculo. Aqui estão alguns exemplos deste tipo de aplicação como um “serviço de dados”:
Este artigo defende que cenários envolvendo várias pessoas, envolvendo justiça e privacidade, requerem ZKP para fornecer verificação, e várias das aplicações mencionadas pela Modulus Labs são discutidas aqui:
Em geral, quando a IA é semelhante a um tomador de decisões, e a sua saída tem uma ampla gama de influência e envolve equidade de várias partes, as pessoas exigirão uma revisão do processo de tomada de decisão, ou simplesmente garantir que não existam problemas importantes com o processo de tomada de decisão da IA, e proteger a privacidade pessoal é uma exigência muito imediata.
Portanto, “se a saída de IA modifica o estado on-chain” e “se afeta a equidade/privacidade” são dois critérios para julgar se uma solução de IA verificável é necessária
Crédito da Foto: Kernel Ventures
De qualquer forma, a solução da Modulus Labs é altamente instrutiva sobre como a IA pode combinar criptografia e trazer valor prático à aplicação. No entanto, o sistema de cadeia pública não só melhora as capacidades dos serviços individuais de IA, mas também tem o potencial de construir um novo ecossistema de aplicação de IA. Este novo ecossistema trouxe uma relação diferente entre os serviços de IA do que o Web2, a relação entre os serviços de IA e os utilizadores, e até a forma como os elos a montante e a jusante colaboram. Podemos resumir os modelos potenciais do ecossistema de aplicação de IA em dois tipos: modo vertical e modelo horizontal.
O caso de uso de xadrez em cadeia “Leela vs. the World” tem um lugar especial. As pessoas podem apostar em humanos ou IA, e os tokens são distribuídos automaticamente após o fim do jogo. Neste ponto, o significado de zkp não é apenas para os utilizadores verificarem os cálculos da IA, mas também como uma garantia de confiança para desencadear transições de estado em cadeia. Com a garantia de confiança, pode também haver composabilidade ao nível da dapp entre os serviços de IA e entre IA e dapps nativas de criptografia.
Fonte da imagem: Kernel Ventures, com referência da Modulus Labs
A unidade básica de IA combinável é [modelo de ML fora da cadeia - geração de zkp - contrato de verificação na cadeia - contrato principal]. Esta unidade baseia-se no quadro 'Leela vs. the World', mas a arquitetura real de um único dapp de IA pode não ser a mesma que a mostrada na imagem acima. Em primeiro lugar, a situação do jogo de xadrez no xadrez requer um contrato, mas na realidade, a IA pode não necessitar de um contrato na cadeia. No entanto, no que diz respeito à arquitetura da IA combinável, se o negócio principal for registado através de contratos, pode ser mais conveniente para outros dapps combinarem com ele. Em segundo lugar, o contrato principal não necessita necessariamente de afetar o modelo de ML do dapp de IA em si, porque um dapp de IA pode ter um efeito unidirecional. Depois do modelo de ML ser processado, é suficiente acionar um contrato relacionado com o seu próprio negócio, e o contrato será chamado por outros dapps.
Amplamente, as chamadas entre contratos são chamadas entre diferentes aplicações web3. São chamadas para identidade pessoal, ativos, serviços financeiros e até informações sociais. Podemos imaginar uma combinação específica de aplicações de IA:
A interação entre a IA no quadro da cadeia pública não é algo que não tenha sido discutido. Loaf, um contribuidor para o ecossistema Realms de jogos de cadeia completa, propôs que NPCs de IA possam negociar entre si como jogadores, para que todo o sistema econômico possa otimizar-se e operar automaticamente. A Arena de IA desenvolveu um jogo de batalha automatizado de IA. Os utilizadores compram primeiro um NFT. Um NFT representa um robô de batalha, e por trás está um modelo de IA. Os utilizadores jogam primeiro jogos por conta própria, depois entregam os dados à IA para aprendizagem simulada. Quando os utilizadores sentem que a IA é suficientemente forte, podem jogar automaticamente contra outras IAs na arena. A Modulus Labs mencionou que a Arena de IA quer transformar toda esta IA em IA verificável. Ambos os casos viram a possibilidade de interação entre IA e modificação de dados on-chain diretamente à medida que interagiam.
No entanto, ainda existem muitas questões a serem discutidas na implementação específica de IA combinável, como diferentes dapps podem usar os zkps uns dos outros ou verificar contratos. No entanto, também existem muitos projetos excelentes no campo zk. Por exemplo, a RISC Zero fez muitos progressos na realização de cálculos complexos off-chain e libertando zkps para a chain. Talvez um dia seja possível reunir uma solução adequada.
2.2 Modelo horizontal: plataformas de serviços de IA que se concentram na descentralização
Neste sentido, apresentamos principalmente uma plataforma de IA descentralizada chamada SAKSHI, que foi proposta em conjunto por pessoas da Universidade de Princeton, Universidade Tsinghua, Universidade de Illinois em Urbana-Champaign, Universidade de Ciência e Tecnologia de Hong Kong, Witness Chain e Eigen Layer. Seu objetivo principal é permitir que os usuários acessem serviços de IA de forma mais descentralizada, tornando todo o processo mais confiável e automatizado.
Crédito da Foto: SAKSHI
A estrutura da SAKSHI pode ser dividida em seis camadas: camada de serviço (camada de serviço), camada de controle (camada de controle), camada de transação (camada de transação), camada de prova (camada de prova), camada econômica (camada econômica) e camada de mercado (Marketplace)
O mercado é o nível mais próximo do utilizador. Existem agregadores no mercado para fornecer serviços aos utilizadores em nome de diferentes fornecedores de IA. Os utilizadores fazem pedidos através dos agregadores e chegam a acordos com os agregadores sobre a qualidade do serviço e os preços de pagamento (os acordos são chamados de acordos de nível de serviço - SLA).
A seguir, a camada de serviço fornece uma API para o lado do cliente, depois o cliente faz um pedido de inferência de ML para o agregador, e o pedido é enviado a um servidor usado para corresponder ao fornecedor de serviços de IA (a rota usada para transmitir o pedido faz parte da camada de controlo). Portanto, a camada de serviço e a camada de controlo são semelhantes a um serviço com vários servidores web2, mas os servidores diferentes são operados por entidades diferentes, e cada servidor está ligado através de um SLA (acordo de serviço previamente assinado) e um agregador.
SLAs são implementados na cadeia na forma de contratos inteligentes, todos os quais pertencem à camada de transação (nota: nesta solução, eles são implementados na Cadeia de Testemunhas). A camada de transação também regista o estado atual de um pedido de serviço e é usada para coordenar utilizadores, agregadores e fornecedores de serviços para lidar com disputas de pagamento.
Para que a camada de transação tenha evidências em que confiar ao lidar com disputas, a camada de prova (Camada de Prova) verificará se o provedor de serviços usa o modelo conforme acordado no SLA. No entanto, o SAKSHI não optou por gerar zkp para o processo de cálculo de ML, mas sim utilizou a ideia de prova otimista, esperando estabelecer uma rede de nós desafiadores para testar o serviço. Os incentivos dos nós são suportados pela Cadeia de Testemunhas.
Embora o SLA e a rede de nós desafiadores estejam na Witness Chain, no plano da SAKSHI, a Witness Chain não planeia usar os seus incentivos de token nativos para alcançar segurança independente, mas sim utiliza a segurança do Ethereum através da Eigen Layer, pelo que toda a economia na realidade depende da Eigen Layer.
Como se pode ver, SAKSHI está entre os fornecedores de serviços de IA e os utilizadores, e organiza diferentes IAs de forma descentralizada para fornecer serviços aos utilizadores. Isto é mais semelhante a uma solução horizontal. O cerne do SAKSHI é permitir que os fornecedores de serviços de IA se concentrem mais na gestão dos seus próprios cálculos de modelos off-chain, correspondendo as necessidades dos utilizadores com os serviços de modelos, pagamento de serviços e verificação da qualidade do serviço através de acordos on-chain, e tentando resolver automaticamente disputas de pagamento. Claro, neste momento o SAKSHI ainda está na fase teórica, e há também muitos detalhes de implementação que valem a pena determinar.
Quer se trate de IA combinável ou de plataformas de IA descentralizadas, o modelo de ecossistema de IA baseado na cadeia pública parece ter algo em comum. Por exemplo, os fornecedores de serviços de IA não se conectam diretamente com os utilizadores; eles apenas precisam de fornecer modelos de ML e realizar cálculos off-chain. Pagamentos, resolução de disputas e coordenação entre as necessidades dos utilizadores e os serviços podem ser resolvidos por acordos descentralizados. Como uma infraestrutura sem confiança, a cadeia pública reduz o atrito entre os fornecedores de serviços e os utilizadores, e os utilizadores também têm maior autonomia neste momento.
Embora as vantagens de usar a cadeia pública como base de aplicação sejam clichês, é verdade que também se aplica aos serviços de IA. No entanto, a diferença entre as aplicações de IA e as aplicações dapp existentes é que as aplicações de IA não podem colocar todas as computações na cadeia, portanto, é necessário usar zk ou prova otimista para conectar os serviços de IA ao sistema de cadeia pública de maneira mais confiável.
Com a implementação de uma série de soluções de otimização de experiência, como a abstração de conta, os utilizadores podem não ser capazes de sentir a existência de mnemónicas, cadeias e gás. Isto aproxima o ecossistema da cadeia pública do web2 em termos de experiência, enquanto os utilizadores podem obter um maior grau de liberdade e composição do que os serviços web2. Isto será muito atraente para os utilizadores. O ecossistema de aplicação de IA baseado na cadeia pública é digno de antecipação.
A Kernel Ventures é um fundo de capital de risco criptográfico impulsionado por uma comunidade de pesquisa e desenvolvimento com mais de 70 investimentos em estágios iniciais focados em infraestrutura, middleware, dApps, especialmente ZK, Rollup, DEX, blockchains modulares e verticais que hospedarão os próximos bilhões de utilizadores de criptomoedas, como a abstração de contas, disponibilidade de dados, escalabilidade, etc. Nos últimos sete anos, temos estado empenhados em apoiar o desenvolvimento de comunidades de desenvolvimento de núcleo e associações universitárias de blockchain em todo o mundo.
Aviso Legal: