O advento das blockchains públicas é um dos avanços mais profundos na história da ciência da computação. Mas o desenvolvimento da inteligência artificial terá, e já está tendo, um impacto profundo em nosso mundo. Se a tecnologia blockchain fornece um novo modelo para a liquidação de transações, armazenamento de dados e design de sistemas, a inteligência artificial é uma revolução na computação, análise e entrega de conteúdo. A inovação nas duas indústrias está desbloqueando novos casos de uso que poderiam acelerar a adoção de ambos nos próximos anos. Este relatório explora as integrações em curso de cripto e IA com foco em casos de uso inovadores que tentam preencher a lacuna entre os dois, aproveitando o poder de ambos. Especificamente, este relatório examina projetos que desenvolvem protocolos de computação descentralizada, infraestrutura de aprendizado de máquina de conhecimento zero (zkML) e agentes de IA.
A Cripto fornece à IA uma camada de liquidação sem permissão, sem confiança e componível. Isso desbloqueia casos de uso, como tornar o hardware mais acessível por meio de sistemas de computação descentralizados, construir agentes de IA que podem executar tarefas complexas que requerem a troca de valor e desenvolver soluções de identidade e procedência para combater ataques Sybil e deep fakes. A IA traz para a cripto muitos dos mesmos benefícios que vemos na Web 2. Isso inclui uma experiência do usuário aprimorada (UX) para usuários e desenvolvedores, graças a modelos de linguagem grandes (ou seja, versões especialmente treinadas do ChatGPT e Copilot) e também o potencial para melhorar significativamente a funcionalidade de contratos inteligentes e automação. As blockchains são ambientes transparentes e ricos em dados de que a IA precisa. Mas as blockchains também possuem capacidade computacional limitada, um grande obstáculo para a integração direta de modelos de IA.
A força motriz por trás da experimentação contínua e da adoção eventual na interseção entre cripto e IA é a mesma que impulsiona grande parte dos casos de uso mais promissores da cripto - o acesso a uma camada de coordenação sem permissão e sem confiança que facilita melhor a transferência de valor. Dado o enorme potencial, os participantes no espaço precisam compreender as formas fundamentais em que as duas tecnologias se intersectam.
A Inteligência Artificial é a utilização de computação e máquinas para imitar as capacidades de raciocínio e resolução de problemas dos seres humanos.
As redes neurais são um método de treino para modelos de IA. Elas processam entradas através de camadas discretas de algoritmos, refinando-as até que a saída desejada seja produzida. As redes neurais são compostas por equações que possuem pesos que podem ser modificados para alterar a saída. Elas podem exigir quantidades incríveis de dados e computação para serem treinadas, de modo que suas saídas sejam precisas. É uma das maneiras mais comuns pelas quais os modelos de IA são desenvolvidos (o ChatGPT usa um processo de rede neural dependente detransformadores).
O treino é o processo pelo qual as redes neurais e outros modelos de IA são desenvolvidos. Requer grandes quantidades de dados para treinar modelos a interpretar corretamente as entradas e produzir saídas precisas. Durante o processo de treino, os pesos da equação do modelo são continuamente modificados até que uma saída satisfatória seja produzida. O treino pode ser muito caro. O ChatGPT, por exemplo, utilizadezenas de milhares de suas próprias GPUs para processar seus dados. As equipas com menos recursos muitas vezes dependem de fornecedores de computação dedicados como Amazon Web Services, Azure e Google Cloud Providers.
A inferência é o uso real de um modelo de IA para obter uma saída ou resultado (por exemplo, usar o ChatGPT para criar um esboço para um artigo sobre a interseção de cripto e IA). As inferências são utilizadas ao longo do processo de treino e no produto final. Podem ser dispendiosas de executar, mesmo após a conclusão do treino, devido aos custos computacionais, mas são menos intensivas computacionalmente do que o treino.
As Provas de Conhecimento Zero (ZKP) permitem a verificação de uma reivindicação sem revelar a informação subjacente. Isto é útil na cripto por duas razões principais: 1) privacidade e 2) escalabilidade. Para a privacidade, isto permite aos utilizadores transacionar sem revelar informações sensíveis como a quantidade de ETH na sua carteira. Para a escalabilidade, permite a computação off-chain ser provada on-chain mais rapidamente do que ter de reexecutar a computação. Isto permite que blockchains e aplicações executem computações de forma barata off-chain e depois as verifiquem on-chain. Para obter mais informações sobre conhecimento zero e o seu papel na Máquina Virtual Ethereum, consulte o relatório de Christine Kim.zkEVMs: O Futuro da Escalabilidade do Ethereum.
Projetos na interseção entre IA e cripto ainda estão a desenvolver a infraestrutura subjacente necessária para suportar interações de IA on-chain em grande escala.
Os mercados de computação descentralizada estão a emergir para fornecer grandes quantidades de hardware físico, principalmente na forma de unidades de processamento gráfico (GPUs), necessárias para treinar e inferir modelos de IA. Estes mercados de duas faces conectam aqueles que arrendam e procuram arrendar computação, facilitando a transferência de valor e a verificação da computação. Dentro da computação descentralizada, estão a emergir várias subcategorias que fornecem funcionalidades adicionais. Além dos mercados de duas faces, este relatório examinará os fornecedores de treino de aprendizagem automática que se especializam em prestar treino verificável e ajustes finos, bem como projetos que trabalham para conectar a computação e a geração de modelos para alcançar inteligência artificial geral, também frequentemente referida como redes de incentivo à inteligência.
zkML é uma área emergente de foco para projetos que desejam fornecer resultados de modelo verificáveis on-chain de forma econômica e oportuna. Esses projetos permitem principalmente que os aplicativos lidem com solicitações de computação pesadas offchain e, em seguida, postem on-chain uma saída verificável provando que a carga de trabalho offchain é completa e precisa. zkML é caro e demorado em sua instanciação atual, mas está sendo cada vez mais usado como uma solução. Isso é evidente no número crescente de integrações entre provedores zkML e aplicativos DeFi/Gaming que desejam aproveitar modelos de IA.
Ampla oferta de computação e a capacidade de verificar essa computação on-chain abrem as portas para agentes de IA on-chain. Os agentes são modelos treinados capazes de executar pedidos em nome de um utilizador. Os agentes oferecem a oportunidade de melhorar significativamente a experiência on-chain, permitindo aos utilizadores executar transações complexas apenas falando com um chatbot. No entanto, tal como existem hoje, os projetos de Agentes ainda estão focados em desenvolver a infraestrutura e as ferramentas para uma implantação fácil e rápida.
A IA requer grandes quantidades de cálculo, tanto para treinar modelos quanto para executar inferências. Ao longo da última década, à medida que os modelos se tornaram mais sofisticados, os requisitos de cálculo cresceram exponencialmente. A OpenAI, por exemplo,encontradoque entre 2012 e 2018, os requisitos de computação para os seus modelos passaram de dobrar a cada dois anos para a cada três meses e meio. Isso levou a um aumento na procura de GPUs, com alguns mineiros de cripto atéreutilização das suas GPUspara fornecer serviços de computação em nuvem ( @jeff.washington/2024-02-06-solana-mainnet-beta-outage-report-619bd75b3ce0">saiba mais sobre isto no nosso relatório anual de mineração de Bitcoin). À medida que a concorrência para aceder a cálculos aumenta e os custos sobem, vários projetos estão a utilizar cripto para fornecer soluções de cálculo descentralizadas. Eles oferecem cálculos sob demanda a preços competitivos para que as equipas possam treinar e executar modelos de forma acessível. O compromisso, em alguns casos, pode ser o desempenho e a segurança.
GPUs de ponta, como aqueles produzidospela Nvidia, estão em alta demanda. Em setembro, Tetheradquiridouma participação na Northern Data, uma mineira de Bitcoin alemã, alegadamente pagando $420 milhões para adquirir 10.000 GPUs H100 (uma das GPUs mais avançadas para treino de IA).AguardeOs tempos para o hardware de ponta podem ser de pelo menos seis meses e, em muitos casos, mais longos. Para piorar a situação, as empresas muitas vezes são obrigadas a assinar contratos de longo prazo para quantidades de computação que nem sequer podem usar. Isso pode levar a situações em que há computação disponível, mas não está disponível no mercado. Os sistemas de computação descentralizados ajudam a resolver essas ineficiências de mercado, criando um mercado secundário onde os proprietários de computação podem subarrendar sua capacidade excedente a qualquer momento, desbloqueando um novo fornecimento.
Além da precificação competitiva e acessibilidade, a proposta de valor chave da computação descentralizada é a resistência à censura. O desenvolvimento de IA de ponta está cada vez mais dominado por grandes empresas de tecnologia com acesso incomparável à computação e dados. O primeiro tema-chave destacado no Relatório do Índice de IAO relatório anual de 2023 é que a indústria está a superar cada vez mais a academia no desenvolvimento de modelos de IA, centralizando o controlo nas mãos de alguns líderes tecnológicos. Isso levantou preocupações sobre a sua capacidade de ter uma influência desproporcional na ditadura das normas e valores que sustentam os modelos de IA, especialmente após a regulamentaçãoempurrapor estas mesmas empresas de tecnologia para restringir o desenvolvimento de IA fora do seu controlo.
Vários modelos de computação descentralizada surgiram nos últimos anos, cada um com seu próprio foco e compensações.
Projetos como Akash, io.net, iExec, Cudos e muitos outros são aplicações de computação descentralizada que oferecem acesso a, ou em breve oferecerão acesso a, computação especializada para treino de IA e inferências, além de soluções de dados e computação generalizada.
Akash é atualmente a única plataforma de “supercloud” totalmente de código aberto. É uma rede de prova de participação que utiliza o Cosmos SDK. O AKT, token nativo da Akash, é utilizado para garantir a rede, como forma de pagamento e para incentivar a participação. A Akash lançou sua primeira mainnet em 2020, focada em fornecer um mercado de computação em nuvem sem permissão, apresentando inicialmente serviços de armazenamento e locação de CPU. Em junho de 2023, Akash lançadouma nova rede de teste focada em GPUs e em setembrolançadoa sua GPU mainnet permite aos utilizadores alugar GPUs para treino e inferências de IA.
Existem dois atores principais no ecossistema Akash - Inquilinos e Fornecedores. Os Inquilinos são usuários da rede Akash que desejam comprar recursos computacionais. Os Fornecedores são os fornecedores de computação. Para combinar inquilinos e fornecedores, a Akash depende de um processo de leilão reverso. Os inquilinos enviam seus requisitos de computação, nos quais podem especificar certas condições, como a localização dos servidores ou o tipo de hardware que realiza o cálculo, e a quantia que estão dispostos a pagar. Os fornecedores então enviam seu preço pedido, com a oferta mais baixa recebendo a tarefa.
Os validadores Akash mantêm a integridade da rede. O conjunto de validadores está atualmente limitado a 100, com planos para aumentar gradualmente ao longo do tempo. Qualquer pessoa pode tornar-se um validador apostando mais AKT do que o validador atual com a menor quantidade de AKT apostado. Os titulares de AKT também podem delegar o seu AKT a validadores. As taxas de transação e as recompensas de bloco para a rede são distribuídas no AKT. Além disso, por cada arrendamento a rede Akash ganha uma "take fee" a uma taxa determinada pela comunidade que é distribuída aos detentores do AKT.
Os mercados de computação descentralizada visam preencher as ineficiências no mercado de computação existente. As restrições de oferta estão levando as empresas a acumular computação além do que podem precisar, e a oferta é ainda mais limitada devido à estrutura dos contratos com provedores de nuvem que prendem os clientes em contratos de longo prazo, mesmo que o acesso contínuo não seja necessário. As plataformas de computação descentralizada desbloqueiam novas ofertas, permitindo que qualquer pessoa no mundo com a computação demandada se torne um fornecedor.
Resta saber se a forte demanda por GPUs para treino de IA se traduzirá em uso de rede a longo prazo na Akash. A Akash há muito tempo fornece um mercado para CPUs, por exemplo, oferecendo serviços semelhantes às alternativas centralizadas em Gate.70-80%desconto. No entanto, preços mais baixos não resultaram em uma adoção significativa. Os arrendamentos ativos na rede estagnaram, com uma média de apenas 33% de computação, 16% de memória e 13% de armazenamento para o segundo trimestre de 2023. Embora essas sejam métricas impressionantes para a adoção on-chain (para referência, o principal provedor de armazenamento Filecoin teve Utilização de armazenamento de 12.6%no terceiro trimestre de 2023), isso demonstra que o fornecimento continua a superar a procura por esses produtos.
Faz pouco mais de meio ano desde que a Akash lançou sua rede GPU e ainda é muito cedo para avaliar com precisão a adoção a longo prazo. Um sinal de demanda, a utilização média da GPU até o momento é de 44% e superior à de CPUs, memória e armazenamento. Isso é impulsionado principalmente pela demanda por GPUs da mais alta qualidade (como A100s), com mais de 90%alugado.
Os gastos diários no Akash também aumentaram, quase duplicando em relação aos pré-GPUs. Isso pode ser atribuído parcialmente a um aumento em outros serviços utilizados, especialmente CPUs, mas é principalmente resultado do novo uso de GPU.
As correspondências de preços (ou, em alguns casos, são ligeiramente mais caras) são semelhantes às de concorrentes centralizados como Lambda Cloud e Vast.ai. A incrível procura pelas GPUs de ponta (como H100 e A100s) significa que a maioria dos proprietários desse equipamento tem pouco interesse em listá-lo em mercados onde enfrentam preços competitivos.
Embora o interesse inicial seja promissor, ainda existem barreiras à adoção (discutidas mais abaixo). Redes de computação descentralizadas precisarão fazer mais para gerar tanto demanda quanto oferta e equipes estão experimentando a melhor forma de atrair novos utilizadores. No início de 2024, por exemplo, a Akash passou Proposta 240 para aumentar as emissões de AKT para os fornecedores de GPUs e incentivar mais oferta, visando especificamente GPUs de última geração. As equipes também estão trabalhando na implantação de modelos de prova de conceito para demonstrar aos usuários em potencial os recursos em tempo real de suas redes. Akash é formaçãoo seu próprio modelo fundamental e já lançouchatbot e ainda geração de imagensofertas que criam saídas usando GPUs Akash. Da mesma forma, io.net tem desenvolvidoum modelo de difusão estável e está a ser implementadonovas funcionalidades de redeque melhor mimetizam o desempenho e escala dos datacenters de GPU tradicionais.
Para além das plataformas de computação generalizadas que podem servir as necessidades de IA, está a surgir um conjunto de fornecedores especializados de GPU de IA focados no treino de modelos de aprendizagem automática. A Gensyn, por exemplo, é " coordenandoeletricidade e hardware para construir inteligência coletiva” com a visão de que, “Se alguém quer treinar algo, e alguém está disposto a treiná-lo, então esse treinamento deve ser permitido acontecer.”
O protocolo tem quatro atores principais: submetedores, solucionadores, verificadores e denunciantes. Os submetedores submetem tarefas à rede com pedidos de treino. Estas tarefas incluem o objetivo do treino, o modelo a ser treinado e os dados de treino. Como parte do processo de submissão, os submetedores pagam uma taxa antecipada pelo cálculo estimado necessário do solucionador.
Uma vez submetidas, as tarefas são atribuídas a solucionadores que realizam o treino real dos modelos. Os solucionadores depois submetem as tarefas completas aos verificadores que são responsáveis por verificar o treino para garantir que foi feito corretamente. Os denunciantes são responsáveis por garantir que os verificadores se comportem honestamente. Para incentivar os denunciantes a participar na rede, a Gensyn planeia fornecer periodicamente provas propositadamente incorretas que recompensam os denunciantes por as detetarem.
Para além de fornecer cálculos para cargas de trabalho relacionadas com IA, a proposta de valor chave da Gensyn é o seu sistema de verificação, que ainda está em desenvolvimento. A verificação é necessária para garantir que os cálculos externos realizados pelos fornecedores de GPU sejam executados corretamente (ou seja, para garantir que o modelo de um utilizador seja treinado da forma que desejam). A Gensyn aborda este problema com uma abordagem única, aproveitando métodos de verificação inovadores chamados, 'Prova probabilística de aprendizagem, Protocolo de pinpoint baseado em gráfico e Jogos de incentivo no estilo Truebit.' Este é um modo de resolução otimista que permite a um verificador confirmar que um resolvedor executou corretamente um modelo sem ter que o executar completamente novamente, o que é um processo dispendioso e ineficiente.
Além de seu método de verificação inovador, Gensyn também Reclamaçõesser economicamente viável em relação às alternativas centralizadas e aos concorrentes de cripto - fornecendo treinamento de ML até 80% mais barato do que a AWS, enquanto supera projetos semelhantes como o Truebit nos testes.
Se estes resultados iniciais podem ser replicados em grande escala através de uma rede descentralizada ainda está por ver. A Gensyn quer aproveitar o excesso de computação de fornecedores como pequenos centros de dados, utilizadores domésticos e, no futuro, até dispositivos móveis mais pequenos como telemóveis. No entanto, como a própria equipa da Gensyn admitido, dependendo de fornecedores de computação heterogêneos introduz vários novos desafios.
Para fornecedores centralizados como Google Cloud Providers e Coreweave, o cálculo é caro, enquanto a comunicação entre esse cálculo (largura de banda e latência) é barata. Estes sistemas são projetados para permitir a comunicação entre hardware o mais rapidamente possível. Gensyn inverte esse quadro, reduzindo os custos de cálculo ao permitir que qualquer pessoa no mundo forneça GPUs, mas aumentando os custos de comunicação, uma vez que a rede agora deve coordenar os trabalhos de cálculo em hardware heterogéneo localizado longe. Gensyn ainda não foi lançado, mas é uma prova de conceito do que poderá ser possível no que diz respeito à construção de protocolos de treino descentralizados de aprendizagem automática.
Plataformas de computação descentralizadas também estão a abrir as possibilidades de design para os métodos de criação de inteligência artificial. Bittensor é um protocolo de computação descentralizada construído em Substrate que étentando respondera questão de, "como podemos transformar a IA numa abordagem colaborativa?" Bittensor tem como objetivo descentralizar e commodificar a geração de inteligência artificial. Lançado em 2021, o protocolo pretende aproveitar o poder de modelos colaborativos de aprendizagem de máquinas para iterar continuamente e produzir uma inteligência artificial melhor.
Bittensor inspira-se no Bitcoin, com um fornecimento de vinte e um milhões de sua moeda nativa TAO e um ciclo de redução de quatro anos (a primeira redução será em 2025). Em vez de usar a Prova de Trabalho para gerar o nonce correto e ganhar uma recompensa de bloco, o Bittensor depende de "Prova de Inteligência", exigindo que os mineradores executem modelos que produzam saídas em resposta a pedidos de inferência.
Bittensor originalmente dependia de um modelo de Mistura de Especialistas (MoE) para produzir saídas. Quando as solicitações de inferência são enviadas, em vez de depender de um modelo generalizado, os modelos MoE retransmitem a solicitação de inferência para os modelos mais precisos para um determinado tipo de entrada. Pense em construir uma casa onde você contrata uma variedade de especialistas para diferentes aspetos do processo de construção (ex: arquitetos, engenheiros, pintores, trabalhadores da construção etc...). O MoE aplica isso a modelos de aprendizado de máquina, tentando aproveitar as saídas de diferentes modelos dependendo da entrada. Como o fundador da Bittensor Ala Shaabana explicado, é como "falar com uma sala de pessoas inteligentes e obter a melhor resposta em vez de falar com uma pessoa". Devido à desafioscom a garantia do encaminhamento adequado, sincronização de mensagens para o modelo correto e incentivo, esta abordagem foi posta de lado até que o projeto esteja mais desenvolvido.
Existem dois atores principais na rede Bittensor: validadores e mineiros. Os validadores têm a tarefa de enviar pedidos de inferência aos mineiros, rever as suas saídas e classificá-las com base na qualidade das respostas. Para garantir que as suas classificações sejam fiáveis, os validadores recebem pontuações de “vtrust” com base na precisão das suas classificações em relação às classificações de outros validadores. Quanto mais alta for a pontuação de vtrust de um validador, mais emissões de TAO eles ganham. Isso tem como objetivo incentivar os validadores a alcançar consenso sobre as classificações de modelos ao longo do tempo, já que quanto mais validadores concordarem sobre as classificações, mais altas serão as suas pontuações individuais de vtrust.
Os mineradores, também chamados de servidores, são participantes da rede que executam os modelos de aprendizado de máquina reais. Os mineradores competem entre si para fornecer aos validadores as saídas mais precisas para uma determinada consulta, ganhando mais emissões de TAO quanto mais precisas forem suas saídas. Os mineradores podem gerar essas saídas da maneira que desejarem. Por exemplo, é inteiramente possível em um cenário futuro que um minerador do Bittensor possa ter treinado previamente modelos no Gensyn que eles utilizam para ganhar emissões de TAO.
Hoje, a maioria das interações acontece diretamente entre validadores e mineiros. Os validadores enviam inputs aos mineiros e solicitam outputs (ou seja, treinam o modelo). Uma vez que um validador tenha consultado os mineiros na rede e recebido suas respostas, eles classificam os mineiros e enviam suas classificações para a rede.
Esta interação entre validadores (que dependem de PoS) e mineiros (que dependem de Proof of Model, uma forma de PoW) – é chamada de Consenso Yuma. Procura incentivar os mineiros a produzir as melhores saídas para ganhar emissões de TAO e os validadores a classificar com precisão as saídas dos mineiros para ganhar uma pontuação de vtrust mais alta e aumentar suas recompensas de TAO formando o mecanismo de consenso da rede.
As interações no Bittensor consistem principalmente em validadores enviando pedidos aos mineradores e avaliando suas saídas. À medida que a qualidade dos mineradores contribuintes aumenta e a inteligência geral da rede cresce, no entanto, o Bittensor criará uma camada de aplicação em cima de sua pilha existente para que os desenvolvedores possam construir aplicações que consultem a rede Bittensor.
Em outubro de 2023, a Bittensor completou um passo importante para alcançar isso com o introduçãode sub-redes através da sua atualização Revolution. Sub-redes são redes individuais no Bittensor que incentivam comportamentos específicos. A Revolution abre a rede a qualquer pessoa interessada em criar uma sub-rede. Nos meses desde o seu lançamento, mais de 32 sub-redesforam lançados, incluindo os de prompt de texto, raspagem de dados, geração de imagens e armazenamento. À medida que as sub-redes amadurecem e se tornam prontas para o produto, os criadores de sub-redes também criarão integrações de aplicativos, permitindo que as equipas construam aplicações que consultem uma sub-rede específica. Algumas aplicações (chatbot, gerador de imagens, bot de resposta do Twitter, mercado de previsão) existem hoje, mas não existem incentivos formais para os validadores aceitarem e transmitirem essas consultas além das bolsas da fundação Bittensor.
Para fornecer uma ilustração mais clara, aqui está um exemplo de como o Bittensor pode funcionar uma vez que as aplicações estejam integradas na rede.
Sub-redes ganham TAO com base no seu desempenho avaliado pelo rede raiz. A rede raiz fica no topo de todas as sub-redes, agindo essencialmente como um tipo especial de sub-rede, e é gerida pelos 64 maiores validadores de sub-redes por participação. Os validadores da rede raiz classificam as sub-redes com base no seu desempenho e distribuem emissões de TAO para as sub-redes periodicamente. Deste modo, as sub-redes individuais atuam como os mineiros para a rede raiz.
Bittensor ainda está a passar por dores de crescimento à medida que expande a funcionalidade do protocolo para incentivar a geração de inteligência em várias sub-redes. Os mineiros continuam a desenvolver novas formas de atacar a rede para ganhar mais recompensas TAO, por exemplo, ligeiramentemodificandoa saída de uma execução de inferência altamente avaliada pelo seu modelo e depois submetendo várias variações. As propostas de governança que afetam toda a rede só podem ser submetidas e implementadas pelo Triunvirato, que é composto inteiramente por partes interessadas da Fundação Opentensor (importante notar que as propostas requerem aprovação pelo BittensorSenadocomposto por validadores Bittensor antes da implementação). E a tokenomia do projeto está em processo de reformulação para melhorar os incentivos para a utilização do TAO em sub-redes. O projeto está também a ganhar rapidamente notoriedade pelo seu abordagem única, com o CEO de um dos sites de IA mais popularesHuggingFaceindicando que Bittensor deve adicionar seus recursos ao site.
Num artigo recentemente publicado peçapor um desenvolvedor principal chamado 'Bittensor Paradigm', a equipe apresenta sua visão para que o Bittensor evolua eventualmente para ser 'agnóstico em relação ao que está sendo medido'. Na teoria, isso poderia permitir que o Bittensor desenvolvesse sub-redes incentivando qualquer tipo de comportamento, tudo alimentado pelo TAO. Permanecem consideráveis restrições práticas - principalmente demonstrar que essas redes são capazes de escalar para lidar com um conjunto tão diversificado de processos e que os incentivos subjacentes impulsionam o progresso que supera as ofertas centralizadas.
As secções acima fornecem uma visão geral de alto nível dos vários tipos de protocolos de computação de inteligência artificial descentralizada que estão a ser desenvolvidos. Embora ainda no início do seu desenvolvimento e adoção, eles fornecem a base de um ecossistema que poderia eventualmente facilitar a criação de "blocos de construção de IA", como o conceito de "Money Legos" do DeFi. A composabilidade das blockchains permissionless abre a possibilidade para que cada protocolo se baseie no outro para fornecer um ecossistema de inteligência artificial descentralizada mais abrangente.
Por exemplo, aqui está uma maneira pela qual Akash, Gensyn e Bittensor podem interagir para responder a um pedido de inferência.
Para ser claro, isto é simplesmente um exemplo do que poderá ser possível no futuro, não uma representação do ecossistema atual, das parcerias existentes ou dos resultados prováveis. As restrições à interoperabilidade, bem como outras considerações descritas abaixo, limitam consideravelmente as possibilidades de integração hoje. Além disso, a fragmentação da liquidez e a necessidade de utilizar múltiplos tokens podem ser prejudiciais para a experiência do utilizador, algo que tem sido apontoupelos fundadores da Akash e Bittensor.
Para além da computação, vários outros serviços de infraestrutura descentralizada estão a ser lançados para apoiar o ecossistema emergente de IA da cripto. Enumerá-los todos está para além do âmbito deste relatório, mas alguns exemplos interessantes e ilustrativos incluem:
Coletivamente, todos estes elementos apontam para as quase infinitas oportunidades de explorar modelos de mercado descentralizados que suportam modelos de IA, ou a infraestrutura circundante necessária para os desenvolver. Por agora, estes projetos encontram-se principalmente na fase de prova de conceito e é necessária muito mais investigação e desenvolvimento para demonstrar que podem operar à escala necessária para fornecer serviços abrangentes de IA.
As ofertas de computação descentralizada ainda estão em estágios iniciais de desenvolvimento. Elas estão apenas começando a disponibilizar acesso a capacidades de computação de ponta capazes de treinar os modelos de IA mais poderosos em produção. Para ganhar uma participação de mercado significativa, elas precisarão demonstrar vantagens práticas em comparação com as alternativas centralizadas. Possíveis gatilhos para uma adoção mais ampla incluem:
Os contratos inteligentes são um bloco de construção essencial de qualquer ecossistema blockchain. Dadas um conjunto específico de condições, eles executam automaticamente e reduzem ou eliminam a necessidade de uma terceira parte confiável, permitindo a criação de aplicações descentralizadas complexas, como as vistas no DeFi. No entanto, tal como existem na sua maioria hoje, os contratos inteligentes ainda são limitados na sua funcionalidade, uma vez que executam com base em parâmetros pré-definidos que devem ser atualizados.
Por exemplo, um contrato inteligente de protocolo de empréstimo/emprestimo é implementado com especificações sobre quando liquidar uma posição com base em determinadas taxas de empréstimo sobre o valor. Embora úteis num ambiente estático, numa situação dinâmica onde o risco está constantemente a mudar, estes contratos inteligentes devem ser continuamente atualizados para dar conta das mudanças na tolerância ao risco, criando desafios para contratos que não são regidos por processos centralizados. DAOs, por exemplo, que dependem de processos de governação descentralizada, podem não ser capazes de reagir suficientemente rapidamente para responder aos riscos sistémicos.
Os contratos inteligentes que integram a IA (ou seja, modelos de aprendizado de máquina) são uma maneira possível de aprimorar a funcionalidade, segurança e eficiência, ao mesmo tempo que melhoram a experiência geral do usuário. Essas integrações também introduzem riscos adicionais, pois é impossível garantir que os modelos que sustentam esses contratos inteligentes não possam ser explorados ou considerar situações de cauda longa (que são notoriamente difíceis de treinar modelos dados osescassez de entradas de dadospara eles).
A aprendizagem automática requer grandes quantidades de cálculo para executar modelos complexos, o que impede que os modelos de IA sejam executados diretamente dentro de contratos inteligentes devido aos altos custos. Um protocolo DeFi que forneça aos utilizadores acesso a um modelo de otimização de rendimento, por exemplo, teria dificuldade em executar esse modelo on-chain sem ter que pagar taxas de gás proibitivamente altas. Uma solução é aumentar a potência computacional da blockchain subjacente. No entanto, isso também aumenta as exigências no conjunto de validadores da cadeia, potencialmente comprometendo as propriedades de descentralização. Em vez disso, alguns projetos estão a explorar o uso de zkML para verificar saídas de forma confiável sem necessidade de computação intensiva on-chain.
Um comumO exemplo compartilhado que ilustra a utilidade do zkML é quando um usuário precisa que outra pessoa execute dados através de um modelo e também verifique se a contraparte realmente executou o modelo correto. Talvez um desenvolvedor esteja usando um provedor de computação descentralizado para treinar seus modelos e preocupa-se que o provedor esteja tentando reduzir custos usando um modelo mais barato com uma diferença quase imperceptível na saída. O zkML permite que o provedor de computação execute os dados através de seus modelos e gere uma prova que pode ser verificada on-chain para provar que a saída do modelo para a entrada fornecida está correta. Neste caso, o provedor do modelo teria a vantagem adicional de poder oferecer seus modelos sem precisar revelar os pesos subjacentes que produzem a saída.
O oposto também poderia ser feito. Se um utilizador quiser executar um modelo usando os seus dados, mas não quiser que o projeto que fornece o modelo tenha acesso aos seus dados devido a preocupações com a privacidade (ou seja, no caso de um exame médico ou informações comerciais proprietárias), então o utilizador poderia executar o modelo nos seus dados sem os partilhar e depois verificar se executou o modelo correto com uma prova. Estas possibilidades expandem consideravelmente o espaço de design para a integração da funcionalidade de IA e contrato inteligente ao lidar com restrições computacionais proibitivas.
Dado o estado inicial do espaço zkML, o desenvolvimento está principalmente focado na construção da infraestrutura e ferramentas necessárias para as equipas converterem os seus modelos e resultados em provas que possam ser verificadas na cadeia. Estes produtos abstraem o aspeto do zero-conhecimento do desenvolvimento tanto quanto possível.
EZKLeGizasão dois projetos que constroem esta ferramenta fornecendo provas verificáveis da execução de um modelo de aprendizagem automática. Ambos ajudam as equipas a construir modelos de aprendizagem automática para garantir que esses modelos possam então ser executados de forma a que os resultados possam ser verificados de forma confiável na cadeia. Ambos os projetos utilizam a Open Neural Network Exchange (ONNX) para transformar modelos de aprendizagem automática escritos em linguagens comuns como TensorFlow e Pytorch num formato padrão. Em seguida, produzem versões desses modelos que também produzem provas zk quando executadas. EZKL é de código aberto e produz zk-SNARKS, enquanto Giza é de código fechado e produz zk-STARKS. Ambos os projetos são atualmente apenas compatíveis com EVM.
EZKL demonstrou progressos significativos nos últimos meses na melhoria da sua solução zkML, focada principalmente emreduzir custos, melhorar a segurança, e acelerando a geração de provasEm novembro de 2023, por exemplo, a EZKL integrou uma nova biblioteca de GPU de código aberto que reduz o tempo de prova agregado em 35% e em janeiro EZKL anunciadoLilith, uma solução de software para integrar clusters de computação de alto desempenho e orquestrar trabalhos simultâneos ao usar o sistema de prova EZKL. Giza é única pelo facto de, para além de fornecer ferramentas para criar modelos de aprendizagem automática verificáveis, também planearem implementar um equivalente web3 deHugging Face, abrindo um mercado de usuários para colaboração zkML e compartilhamento de modelos, bem como eventualmente integrando ofertas de computação descentralizada. Em janeiro, a EZKL lançou um avaliação de referênciacomparando o desempenho do EZKL, Giza e RiscZero (discutido abaixo). EZKL demonstrou tempos de comprovação mais rápidos e uso de memória.
Modulus Labstambém está a desenvolver uma nova técnica de prova zk feita à medida para modelos de IA. A Modulus publicou um artigo chamadoO Custo da Inteligência(sugerindo os custos incrivelmente altos para executar modelos de IA on-chain), que comparou os sistemas zk-proof existentes na época para identificar capacidades e gargalos para melhorar as zk-proofs de modelos de IA. Publicado em janeiro de 2023, o artigo demonstra que as ofertas existentes são simplesmente muito caras e ineficientes para permitir aplicações de IA em escala. Baseando-se em sua pesquisa inicial, em novembro, Modulus@ModulusLabs/introducing-modulus-bring-ai-on-chain-d75dcb82c5e3">introduziu Remainder, um provador de conhecimento zero especializado construído especificamente para reduzir custos e tempo de prova para modelos de IA com o objetivo de torná-lo economicamente viável para projetos integrar modelos em seus contratos inteligentes em escala. Seu trabalho é de código fechado e, portanto, não pôde ser comparado com as soluções acima, mas foi recentemente referenciado no Vitalik’s postagem no blogem Cripto e IA.
O desenvolvimento de ferramentas e infraestruturas é crítico para o crescimento futuro do espaço zkML, pois reduz significativamente a fricção para as equipas que precisam implementar circuitos zk necessários para executar computação verificável offchain. A criação de interfaces seguras que permitem aos construtores não nativos de criptomoeda que trabalham em aprendizagem automática trazer os seus modelos on-chain permitirá uma maior experimentação de aplicações com casos de uso verdadeiramente inovadores. As ferramentas também abordam um grande obstáculo à adoção mais ampla da zkML, a falta de programadores conhecedores e interessados em trabalhar na interseção do conhecimento zero, aprendizagem automática e criptografia.
Soluções adicionais em desenvolvimento, referidas como “coprocessadores,” incluem RiscZero,AxiomeRitual. O termo coprocessador é principalmente semântico - essas redes desempenham muitos papéis diferentes, incluindo a verificação de cálculos offchain on-chain. Assim como EZKL, Giza e Modulus, eles têm como objetivo abstrair completamente o processo de geração de provas de conhecimento zero, criando essencialmente máquinas virtuais de conhecimento zero capazes de executar programas offchain e gerar provas para verificação on-chain. RiscZero e Axiom podem serviçomodelos de IA simples, uma vez que são destinados a serem coprocessadores mais gerais, enquanto Ritual é projetado para ser utilizado com modelos de IA.
Inferneté a primeira instância do Ritual e inclui um SDK Infernet que permite aos desenvolvedores enviar pedidos de inferência para a rede e receber um resultado e prova (opcionalmente) em troca. Um Node Infernet recebe esses pedidos e lida com a computação fora da cadeia antes de devolver um resultado. Por exemplo, uma DAO poderia criar um processo para garantir que todas as novas propostas de governança cumpram certas condições prévias antes de serem enviadas. Sempre que uma nova proposta é enviada, o contrato de governança desencadeia um pedido de inferência através do Infernet chamando um modelo de IA de governança específico da DAO. O modelo analisa a proposta para garantir que todos os critérios necessários tenham sido apresentados e devolve o resultado e a prova, aprovando ou negando a submissão da proposta.
Durante o próximo ano, a equipe Ritual planeia lançar funcionalidades adicionais que formam uma camada de infraestrutura base chamada de Supercadeia Ritual. Muitos dos projetos discutidos anteriormente poderiam conectar-se ao Ritual como fornecedores de serviços. Já a equipe Ritual integrou-se com EZKL para geração de prova e provavelmente em breve adicionará funcionalidades de outros principais fornecedores. Os nós do Infernet no Ritual também poderiam usar GPUs Akash ou io.net e modelos de consulta treinados em sub-redes Bittensor. Seu objetivo final é ser o provedor preferido para infraestrutura de IA aberta, capaz de atender a tarefas de aprendizado de máquina e outras tarefas relacionadas à IA de qualquer rede em qualquer carga de trabalho.
zkML ajuda conciliara contradição entre blockchains e IA, onde os primeiros são inerentemente limitados em recursos e os últimos requerem grandes quantidades de cálculos e dados. Como um dos fundadores da Gizacoloque-o, “Os casos de uso são tão abundantes... é como perguntar nos primeiros dias do Ethereum quais são os casos de uso dos contratos inteligentes... o que estamos a fazer é simplesmente expandir os casos de uso dos contratos inteligentes.” Como destacado acima, no entanto, o desenvolvimento hoje está a ocorrer principalmente ao nível das ferramentas e infraestrutura. As aplicações ainda estão na fase exploratória, com equipas desafiadas a demonstrar que o valor gerado pela implementação de modelos usando zkML supera a complexidade e os custos envolvidos.
Algumas aplicações hoje incluem:
zkML ainda está na fase experimental, com a maioria dos projetos focados na construção de infraestruturas primitivas e provas de conceito. Os desafios atuais incluem custos computacionais, limitações de memória, complexidade do modelo, ferramentas e infraestruturas limitadas, e talento de desenvolvimento. Em suma, há consideravelmente mais trabalho a ser feito antes que o zkML possa ser implementado em uma escala necessária para produtos de consumo.
À medida que o campo amadurece, e essas limitações são abordadas, o zkML tornar-se-á um componente crítico da integração de IA e cripto. No seu âmago, o zkML promete a capacidade de trazer cálculos off-chain de qualquer dimensão on-chain, mantendo as mesmas ou quase as mesmas garantias de segurança como se o cálculo tivesse sido executado on-chain. Até que essa visão seja concretizada, no entanto, os utilizadores iniciais da tecnologia continuarão a ter de equilibrar os compromissos entre a privacidade e segurança do zkML e a eficiência das alternativas.
Uma das integrações mais emocionantes de IA e cripto é a experimentação contínua com Agentes de IA. Os Agentes são bots autônomos capazes de receber, interpretar e executar tarefas usando um modelo de IA. Isso pode ser qualquer coisa, desde ter um assistente pessoal sempre disponível, ajustado às suas preferências, até contratar um agente financeiro que gerencia e ajusta sua carteira de acordo com suas preferências de risco.
Agentes e cripto encaixam bem juntos devido à infraestrutura de pagamentos sem permissão e sem confiança que a cripto fornece. Uma vez treinados, os agentes podem receber uma carteira para que possam transacionar com contratos inteligentes por conta própria. Agentes simples hoje, por exemplo, podem vasculhar a internet em busca de informações e em seguida efetuar negociações em mercados de previsão com base em um modelo.
Morpheusé um dos mais recentes projetos de agente de código aberto que chegará ao mercado na Ethereum e Arbitrum em 2024. O seu white paper foi publicado anonimamente em setembro de 2023, fornecendo a base para uma comunidade se formar e se desenvolver em torno (incluindo figuras notáveis como Erik Vorhees). O white paper inclui um download Protocolo do Agente Inteligente, que é um LLM de código aberto que pode ser executado localmente, gerido pela carteira do utilizador e interagir com contratos inteligentes. Utiliza um Classificação de Contrato Inteligentepara ajudar o agente a determinar quais contratos inteligentes são seguros para interagir com base em critérios como o número de transações processadas.
O white paper também fornece um quadro para a construção da Rede Morpheus, como as estruturas de incentivo e a infraestrutura necessária para tornar o Protocolo de Agente Inteligente operacional. Isso inclui incentivar os colaboradores a construir interfaces para interagir com os agentes, APIs para os desenvolvedores construírem aplicações que possam se conectar aos agentes para que possam interagir entre si, e soluções de nuvem para permitir que os utilizadores acedam à computação e armazenamento necessários para executar um agente num dispositivo de borda. O financiamento inicial para o projeto foi lançado no início de fevereiro, prevendo-se o lançamento do protocolo completo no 2T24.
Rede de Infraestrutura Autônoma Descentralizada (RIAD)é um novo protocolo de infraestrutura de agentes que está a construir uma economia de agente para agente na Solana. DAIN tem como objetivo tornar possível que agentes de diferentes empresas possam interagir entre si de forma transparente através de uma API universal, abrindo consideravelmente o espaço de design para agentes de IA com foco na implementação de agentes capazes de interagir tanto com produtos web2 como web3. Em janeiro, a DAIN anunciou o seu primeiroparceriacom o Asset Shield que permite aos utilizadores adicionar "assinantes agentes" às suas multisig que são capazes de interpretar transações e aprovar/negar com base nas regras definidas pelo utilizador.
Fetch.AIfoi um dos primeiros protocolos de Agentes de IA implantados e desenvolveu um ecossistema para construir, implantar e usar Agentes on-chain usando seu token FET e Fetch.AIcarteira. O protocolo fornece um conjunto abrangente de ferramentas e aplicações para usar Agentes, incluindo funcionalidades na carteira para interagir e solicitar agentes.
Autonolas, cujos fundadores incluem um membro anterior da equipa Fetch, é um mercado aberto para a criação e utilização de agentes de IA descentralizados. A Autonolas também fornece um conjunto de ferramentas para os programadores construírem agentes de IA hospedados fora da cadeia e que podem ligar-se a várias blockchains, incluindo Polygon, Ethereum, Gnosis Chain e Solana. Atualmente, têm alguns agentes ativos de prova de conceito.produtosincluindo para uso em mercados de previsão e governação de DAO.
SingularityNetestá a construir um mercado descentralizado para agentes de IA onde as pessoas podem implantar agentes de IA com foco estreito que podem ser contratados por outras pessoas ou agentes para executar tarefas complexas. Outros, como AlteredStateMachine, estão a desenvolver integrações de Agentes de IA com NFTs. Os utilizadores cunham NFTs com atributos aleatórios que lhes conferem pontos fortes e fracos para diferentes tarefas. Estes agentes podem então ser treinados para melhorar certos atributos para usos como jogos, DeFi, ou como assistente virtual e ser trocados com outros utilizadores.
Coletivamente, esses projetos vislumbram um ecossistema futuro de agentes capazes de trabalhar juntos não apenas para executar tarefas, mas também para ajudar a construir uma inteligência artificial geral. Agentes verdadeiramente sofisticados terão a capacidade de cumprir qualquer tarefa do usuário autonomamente. Por exemplo, em vez de ter que garantir que um Agente já tenha integrado com uma API externa (como um site de reserva de viagens) antes de usá-lo, agentes totalmente autônomos terão a capacidade de descobrir como contratar outro agente para integrar a API e depois executar a tarefa. Do ponto de vista do usuário, não haverá necessidade de verificar se um agente pode cumprir uma tarefa, porque o agente pode determinar isso por si próprio.
Em julho de 2023, Lightning Labslançou uma implementação de prova de conceito para usar Agentes na Lightning Network chamada LangChain Bitcoin Suite. O produto é especialmente interessante, pois visa enfrentar um problema crescente no mundo web 2 –gatedecaroChaves API para aplicações web.
LangChain resolve isso ao fornecer aos desenvolvedores um conjunto de ferramentas que permitem aos agentes comprar, vender e manter Bitcoin, bem como solicitar chaves de API e enviar micro pagamentos. Enquanto nos trilhos de pagamento tradicionais os pequenos micro pagamentos são proibitivos devido às taxas, na Lightning Network, os agentes podem enviar micro pagamentos ilimitados diariamente com taxas mínimas. Quando combinado com o framework de API medido de pagamento L402 da LangChain, isso poderia permitir que as empresas ajustem as taxas de acesso à sua API à medida que o uso aumenta e diminui, em vez de definir um padrão único proibitivo em termos de custos.
Num futuro em que a atividade on-chain é dominada por agentes que interagem com agentes, algo assim será necessário para garantir que os agentes possam interagir uns com os outros de uma forma que não seja proibitiva em termos de custos. Este é um dos primeiros exemplos de como o uso de agentes em trilhos de pagamento sem permissão e econômicos abre as possibilidades para novos mercados e interações econômicas.
O espaço dos Agentes ainda é incipiente. Os projetos estão apenas começando a implementar agentes funcionais que podem lidar com tarefas simples usando sua infraestrutura – que muitas vezes só é acessível a desenvolvedores e usuários sofisticados. Com o tempo, no entanto, um dos maiores impactos que os agentes de IA terão na cripto é a melhoria da experiência do usuário em todas as verticais. As transações começarão a passar de clique do mouse para baseadas em texto, com os usuários tendo a capacidade de interagir com agentes on-chain por meio de LLMs. Já existem equipes como Carteira Dawnestão a introduzir carteiras de chat-bot para os utilizadores interagirem na cadeia.
Além disso, não está claro como os agentes poderiam operar na web 2 onde os trilhos financeiros dependem de instituições bancárias regulamentadas que não operam 24/7 e não podem realizar transações transfronteiriças sem problemas. As Lyn Aldendestacou que os trilhos de cripto são especialmente atraentes em comparação com cartões de crédito devido à falta de chargebacks e à capacidade de processar microtransações. Se os agentes se tornarem um meio mais comum de transação, no entanto, é provável que os provedores de pagamento e aplicativos existentes se movam rapidamente para implementar a infraestrutura necessária para que eles operem nos trilhos financeiros existentes, mitigando alguns dos benefícios de usar cripto.
Por agora, os agentes provavelmente estarão confinados a transações cripto-a-cripto determinísticas, onde uma saída dada é garantida para uma entrada dada. Ambos os modelos, que ditam a capacidade destes agentes de descobrir como executar tarefas complexas, e as ferramentas, que expandem o escopo do que podem realizar, requerem mais desenvolvimento. Para que os agentes de cripto se tornem úteis fora de casos de uso de cripto novos em cadeia, será necessária uma integração e aceitação mais amplas da cripto como forma de pagamento, bem como clareza regulamentar. No entanto, à medida que estes componentes se desenvolvem, os agentes estão prontos para se tornar um dos maiores consumidores de cálculo descentralizado e soluções zkML discutidas acima, atuando de forma autônoma e não determinística para receber e resolver qualquer tarefa.
A IA introduz às criptomoedas as mesmas inovações que já vemos acontecendo na web2, aprimorando tudo, desde o desenvolvimento de infraestrutura até a experiência do usuário e acessibilidade. No entanto, os projetos ainda estão no início de sua evolução e a integração de criptografia e IA de curto prazo será dominada principalmente por integrações offchain.
Produtos como Copilotovai“10x”eficiência do programador, com camada 1seDeFiaplicações já em funcionamento plataformas de desenvolvimento assistidas por IA em parceria com grandes corporações como a Microsoft. Empresas como Cub3.aieMáquina de testeestão a desenvolver integrações de IA para auditoria de contratos inteligentes e monitorização de ameaças em tempo real para melhorar a segurança on-chain. E os chatbots LLM estão a ser treinados usando dados on-chain, documentos de protocolo e aplicações para fornecer aos utilizadores uma acessibilidade e UX melhoradas.
Para integrações mais avançadas que realmente aproveitem as tecnologias subjacentes da cripto, o desafio continua a ser demonstrar que a implementação de soluções de IA on-chain é tanto tecnicamente possível como economicamente viável em grande escala. Os desenvolvimentos em cálculo descentralizado, zkML e Agentes de IA apontam para verticais promissoras que estão a lançar as bases para um futuro onde a cripto e a IA estão profundamente interligadas.
O advento das blockchains públicas é um dos avanços mais profundos na história da ciência da computação. Mas o desenvolvimento da inteligência artificial terá, e já está tendo, um impacto profundo em nosso mundo. Se a tecnologia blockchain fornece um novo modelo para a liquidação de transações, armazenamento de dados e design de sistemas, a inteligência artificial é uma revolução na computação, análise e entrega de conteúdo. A inovação nas duas indústrias está desbloqueando novos casos de uso que poderiam acelerar a adoção de ambos nos próximos anos. Este relatório explora as integrações em curso de cripto e IA com foco em casos de uso inovadores que tentam preencher a lacuna entre os dois, aproveitando o poder de ambos. Especificamente, este relatório examina projetos que desenvolvem protocolos de computação descentralizada, infraestrutura de aprendizado de máquina de conhecimento zero (zkML) e agentes de IA.
A Cripto fornece à IA uma camada de liquidação sem permissão, sem confiança e componível. Isso desbloqueia casos de uso, como tornar o hardware mais acessível por meio de sistemas de computação descentralizados, construir agentes de IA que podem executar tarefas complexas que requerem a troca de valor e desenvolver soluções de identidade e procedência para combater ataques Sybil e deep fakes. A IA traz para a cripto muitos dos mesmos benefícios que vemos na Web 2. Isso inclui uma experiência do usuário aprimorada (UX) para usuários e desenvolvedores, graças a modelos de linguagem grandes (ou seja, versões especialmente treinadas do ChatGPT e Copilot) e também o potencial para melhorar significativamente a funcionalidade de contratos inteligentes e automação. As blockchains são ambientes transparentes e ricos em dados de que a IA precisa. Mas as blockchains também possuem capacidade computacional limitada, um grande obstáculo para a integração direta de modelos de IA.
A força motriz por trás da experimentação contínua e da adoção eventual na interseção entre cripto e IA é a mesma que impulsiona grande parte dos casos de uso mais promissores da cripto - o acesso a uma camada de coordenação sem permissão e sem confiança que facilita melhor a transferência de valor. Dado o enorme potencial, os participantes no espaço precisam compreender as formas fundamentais em que as duas tecnologias se intersectam.
A Inteligência Artificial é a utilização de computação e máquinas para imitar as capacidades de raciocínio e resolução de problemas dos seres humanos.
As redes neurais são um método de treino para modelos de IA. Elas processam entradas através de camadas discretas de algoritmos, refinando-as até que a saída desejada seja produzida. As redes neurais são compostas por equações que possuem pesos que podem ser modificados para alterar a saída. Elas podem exigir quantidades incríveis de dados e computação para serem treinadas, de modo que suas saídas sejam precisas. É uma das maneiras mais comuns pelas quais os modelos de IA são desenvolvidos (o ChatGPT usa um processo de rede neural dependente detransformadores).
O treino é o processo pelo qual as redes neurais e outros modelos de IA são desenvolvidos. Requer grandes quantidades de dados para treinar modelos a interpretar corretamente as entradas e produzir saídas precisas. Durante o processo de treino, os pesos da equação do modelo são continuamente modificados até que uma saída satisfatória seja produzida. O treino pode ser muito caro. O ChatGPT, por exemplo, utilizadezenas de milhares de suas próprias GPUs para processar seus dados. As equipas com menos recursos muitas vezes dependem de fornecedores de computação dedicados como Amazon Web Services, Azure e Google Cloud Providers.
A inferência é o uso real de um modelo de IA para obter uma saída ou resultado (por exemplo, usar o ChatGPT para criar um esboço para um artigo sobre a interseção de cripto e IA). As inferências são utilizadas ao longo do processo de treino e no produto final. Podem ser dispendiosas de executar, mesmo após a conclusão do treino, devido aos custos computacionais, mas são menos intensivas computacionalmente do que o treino.
As Provas de Conhecimento Zero (ZKP) permitem a verificação de uma reivindicação sem revelar a informação subjacente. Isto é útil na cripto por duas razões principais: 1) privacidade e 2) escalabilidade. Para a privacidade, isto permite aos utilizadores transacionar sem revelar informações sensíveis como a quantidade de ETH na sua carteira. Para a escalabilidade, permite a computação off-chain ser provada on-chain mais rapidamente do que ter de reexecutar a computação. Isto permite que blockchains e aplicações executem computações de forma barata off-chain e depois as verifiquem on-chain. Para obter mais informações sobre conhecimento zero e o seu papel na Máquina Virtual Ethereum, consulte o relatório de Christine Kim.zkEVMs: O Futuro da Escalabilidade do Ethereum.
Projetos na interseção entre IA e cripto ainda estão a desenvolver a infraestrutura subjacente necessária para suportar interações de IA on-chain em grande escala.
Os mercados de computação descentralizada estão a emergir para fornecer grandes quantidades de hardware físico, principalmente na forma de unidades de processamento gráfico (GPUs), necessárias para treinar e inferir modelos de IA. Estes mercados de duas faces conectam aqueles que arrendam e procuram arrendar computação, facilitando a transferência de valor e a verificação da computação. Dentro da computação descentralizada, estão a emergir várias subcategorias que fornecem funcionalidades adicionais. Além dos mercados de duas faces, este relatório examinará os fornecedores de treino de aprendizagem automática que se especializam em prestar treino verificável e ajustes finos, bem como projetos que trabalham para conectar a computação e a geração de modelos para alcançar inteligência artificial geral, também frequentemente referida como redes de incentivo à inteligência.
zkML é uma área emergente de foco para projetos que desejam fornecer resultados de modelo verificáveis on-chain de forma econômica e oportuna. Esses projetos permitem principalmente que os aplicativos lidem com solicitações de computação pesadas offchain e, em seguida, postem on-chain uma saída verificável provando que a carga de trabalho offchain é completa e precisa. zkML é caro e demorado em sua instanciação atual, mas está sendo cada vez mais usado como uma solução. Isso é evidente no número crescente de integrações entre provedores zkML e aplicativos DeFi/Gaming que desejam aproveitar modelos de IA.
Ampla oferta de computação e a capacidade de verificar essa computação on-chain abrem as portas para agentes de IA on-chain. Os agentes são modelos treinados capazes de executar pedidos em nome de um utilizador. Os agentes oferecem a oportunidade de melhorar significativamente a experiência on-chain, permitindo aos utilizadores executar transações complexas apenas falando com um chatbot. No entanto, tal como existem hoje, os projetos de Agentes ainda estão focados em desenvolver a infraestrutura e as ferramentas para uma implantação fácil e rápida.
A IA requer grandes quantidades de cálculo, tanto para treinar modelos quanto para executar inferências. Ao longo da última década, à medida que os modelos se tornaram mais sofisticados, os requisitos de cálculo cresceram exponencialmente. A OpenAI, por exemplo,encontradoque entre 2012 e 2018, os requisitos de computação para os seus modelos passaram de dobrar a cada dois anos para a cada três meses e meio. Isso levou a um aumento na procura de GPUs, com alguns mineiros de cripto atéreutilização das suas GPUspara fornecer serviços de computação em nuvem ( @jeff.washington/2024-02-06-solana-mainnet-beta-outage-report-619bd75b3ce0">saiba mais sobre isto no nosso relatório anual de mineração de Bitcoin). À medida que a concorrência para aceder a cálculos aumenta e os custos sobem, vários projetos estão a utilizar cripto para fornecer soluções de cálculo descentralizadas. Eles oferecem cálculos sob demanda a preços competitivos para que as equipas possam treinar e executar modelos de forma acessível. O compromisso, em alguns casos, pode ser o desempenho e a segurança.
GPUs de ponta, como aqueles produzidospela Nvidia, estão em alta demanda. Em setembro, Tetheradquiridouma participação na Northern Data, uma mineira de Bitcoin alemã, alegadamente pagando $420 milhões para adquirir 10.000 GPUs H100 (uma das GPUs mais avançadas para treino de IA).AguardeOs tempos para o hardware de ponta podem ser de pelo menos seis meses e, em muitos casos, mais longos. Para piorar a situação, as empresas muitas vezes são obrigadas a assinar contratos de longo prazo para quantidades de computação que nem sequer podem usar. Isso pode levar a situações em que há computação disponível, mas não está disponível no mercado. Os sistemas de computação descentralizados ajudam a resolver essas ineficiências de mercado, criando um mercado secundário onde os proprietários de computação podem subarrendar sua capacidade excedente a qualquer momento, desbloqueando um novo fornecimento.
Além da precificação competitiva e acessibilidade, a proposta de valor chave da computação descentralizada é a resistência à censura. O desenvolvimento de IA de ponta está cada vez mais dominado por grandes empresas de tecnologia com acesso incomparável à computação e dados. O primeiro tema-chave destacado no Relatório do Índice de IAO relatório anual de 2023 é que a indústria está a superar cada vez mais a academia no desenvolvimento de modelos de IA, centralizando o controlo nas mãos de alguns líderes tecnológicos. Isso levantou preocupações sobre a sua capacidade de ter uma influência desproporcional na ditadura das normas e valores que sustentam os modelos de IA, especialmente após a regulamentaçãoempurrapor estas mesmas empresas de tecnologia para restringir o desenvolvimento de IA fora do seu controlo.
Vários modelos de computação descentralizada surgiram nos últimos anos, cada um com seu próprio foco e compensações.
Projetos como Akash, io.net, iExec, Cudos e muitos outros são aplicações de computação descentralizada que oferecem acesso a, ou em breve oferecerão acesso a, computação especializada para treino de IA e inferências, além de soluções de dados e computação generalizada.
Akash é atualmente a única plataforma de “supercloud” totalmente de código aberto. É uma rede de prova de participação que utiliza o Cosmos SDK. O AKT, token nativo da Akash, é utilizado para garantir a rede, como forma de pagamento e para incentivar a participação. A Akash lançou sua primeira mainnet em 2020, focada em fornecer um mercado de computação em nuvem sem permissão, apresentando inicialmente serviços de armazenamento e locação de CPU. Em junho de 2023, Akash lançadouma nova rede de teste focada em GPUs e em setembrolançadoa sua GPU mainnet permite aos utilizadores alugar GPUs para treino e inferências de IA.
Existem dois atores principais no ecossistema Akash - Inquilinos e Fornecedores. Os Inquilinos são usuários da rede Akash que desejam comprar recursos computacionais. Os Fornecedores são os fornecedores de computação. Para combinar inquilinos e fornecedores, a Akash depende de um processo de leilão reverso. Os inquilinos enviam seus requisitos de computação, nos quais podem especificar certas condições, como a localização dos servidores ou o tipo de hardware que realiza o cálculo, e a quantia que estão dispostos a pagar. Os fornecedores então enviam seu preço pedido, com a oferta mais baixa recebendo a tarefa.
Os validadores Akash mantêm a integridade da rede. O conjunto de validadores está atualmente limitado a 100, com planos para aumentar gradualmente ao longo do tempo. Qualquer pessoa pode tornar-se um validador apostando mais AKT do que o validador atual com a menor quantidade de AKT apostado. Os titulares de AKT também podem delegar o seu AKT a validadores. As taxas de transação e as recompensas de bloco para a rede são distribuídas no AKT. Além disso, por cada arrendamento a rede Akash ganha uma "take fee" a uma taxa determinada pela comunidade que é distribuída aos detentores do AKT.
Os mercados de computação descentralizada visam preencher as ineficiências no mercado de computação existente. As restrições de oferta estão levando as empresas a acumular computação além do que podem precisar, e a oferta é ainda mais limitada devido à estrutura dos contratos com provedores de nuvem que prendem os clientes em contratos de longo prazo, mesmo que o acesso contínuo não seja necessário. As plataformas de computação descentralizada desbloqueiam novas ofertas, permitindo que qualquer pessoa no mundo com a computação demandada se torne um fornecedor.
Resta saber se a forte demanda por GPUs para treino de IA se traduzirá em uso de rede a longo prazo na Akash. A Akash há muito tempo fornece um mercado para CPUs, por exemplo, oferecendo serviços semelhantes às alternativas centralizadas em Gate.70-80%desconto. No entanto, preços mais baixos não resultaram em uma adoção significativa. Os arrendamentos ativos na rede estagnaram, com uma média de apenas 33% de computação, 16% de memória e 13% de armazenamento para o segundo trimestre de 2023. Embora essas sejam métricas impressionantes para a adoção on-chain (para referência, o principal provedor de armazenamento Filecoin teve Utilização de armazenamento de 12.6%no terceiro trimestre de 2023), isso demonstra que o fornecimento continua a superar a procura por esses produtos.
Faz pouco mais de meio ano desde que a Akash lançou sua rede GPU e ainda é muito cedo para avaliar com precisão a adoção a longo prazo. Um sinal de demanda, a utilização média da GPU até o momento é de 44% e superior à de CPUs, memória e armazenamento. Isso é impulsionado principalmente pela demanda por GPUs da mais alta qualidade (como A100s), com mais de 90%alugado.
Os gastos diários no Akash também aumentaram, quase duplicando em relação aos pré-GPUs. Isso pode ser atribuído parcialmente a um aumento em outros serviços utilizados, especialmente CPUs, mas é principalmente resultado do novo uso de GPU.
As correspondências de preços (ou, em alguns casos, são ligeiramente mais caras) são semelhantes às de concorrentes centralizados como Lambda Cloud e Vast.ai. A incrível procura pelas GPUs de ponta (como H100 e A100s) significa que a maioria dos proprietários desse equipamento tem pouco interesse em listá-lo em mercados onde enfrentam preços competitivos.
Embora o interesse inicial seja promissor, ainda existem barreiras à adoção (discutidas mais abaixo). Redes de computação descentralizadas precisarão fazer mais para gerar tanto demanda quanto oferta e equipes estão experimentando a melhor forma de atrair novos utilizadores. No início de 2024, por exemplo, a Akash passou Proposta 240 para aumentar as emissões de AKT para os fornecedores de GPUs e incentivar mais oferta, visando especificamente GPUs de última geração. As equipes também estão trabalhando na implantação de modelos de prova de conceito para demonstrar aos usuários em potencial os recursos em tempo real de suas redes. Akash é formaçãoo seu próprio modelo fundamental e já lançouchatbot e ainda geração de imagensofertas que criam saídas usando GPUs Akash. Da mesma forma, io.net tem desenvolvidoum modelo de difusão estável e está a ser implementadonovas funcionalidades de redeque melhor mimetizam o desempenho e escala dos datacenters de GPU tradicionais.
Para além das plataformas de computação generalizadas que podem servir as necessidades de IA, está a surgir um conjunto de fornecedores especializados de GPU de IA focados no treino de modelos de aprendizagem automática. A Gensyn, por exemplo, é " coordenandoeletricidade e hardware para construir inteligência coletiva” com a visão de que, “Se alguém quer treinar algo, e alguém está disposto a treiná-lo, então esse treinamento deve ser permitido acontecer.”
O protocolo tem quatro atores principais: submetedores, solucionadores, verificadores e denunciantes. Os submetedores submetem tarefas à rede com pedidos de treino. Estas tarefas incluem o objetivo do treino, o modelo a ser treinado e os dados de treino. Como parte do processo de submissão, os submetedores pagam uma taxa antecipada pelo cálculo estimado necessário do solucionador.
Uma vez submetidas, as tarefas são atribuídas a solucionadores que realizam o treino real dos modelos. Os solucionadores depois submetem as tarefas completas aos verificadores que são responsáveis por verificar o treino para garantir que foi feito corretamente. Os denunciantes são responsáveis por garantir que os verificadores se comportem honestamente. Para incentivar os denunciantes a participar na rede, a Gensyn planeia fornecer periodicamente provas propositadamente incorretas que recompensam os denunciantes por as detetarem.
Para além de fornecer cálculos para cargas de trabalho relacionadas com IA, a proposta de valor chave da Gensyn é o seu sistema de verificação, que ainda está em desenvolvimento. A verificação é necessária para garantir que os cálculos externos realizados pelos fornecedores de GPU sejam executados corretamente (ou seja, para garantir que o modelo de um utilizador seja treinado da forma que desejam). A Gensyn aborda este problema com uma abordagem única, aproveitando métodos de verificação inovadores chamados, 'Prova probabilística de aprendizagem, Protocolo de pinpoint baseado em gráfico e Jogos de incentivo no estilo Truebit.' Este é um modo de resolução otimista que permite a um verificador confirmar que um resolvedor executou corretamente um modelo sem ter que o executar completamente novamente, o que é um processo dispendioso e ineficiente.
Além de seu método de verificação inovador, Gensyn também Reclamaçõesser economicamente viável em relação às alternativas centralizadas e aos concorrentes de cripto - fornecendo treinamento de ML até 80% mais barato do que a AWS, enquanto supera projetos semelhantes como o Truebit nos testes.
Se estes resultados iniciais podem ser replicados em grande escala através de uma rede descentralizada ainda está por ver. A Gensyn quer aproveitar o excesso de computação de fornecedores como pequenos centros de dados, utilizadores domésticos e, no futuro, até dispositivos móveis mais pequenos como telemóveis. No entanto, como a própria equipa da Gensyn admitido, dependendo de fornecedores de computação heterogêneos introduz vários novos desafios.
Para fornecedores centralizados como Google Cloud Providers e Coreweave, o cálculo é caro, enquanto a comunicação entre esse cálculo (largura de banda e latência) é barata. Estes sistemas são projetados para permitir a comunicação entre hardware o mais rapidamente possível. Gensyn inverte esse quadro, reduzindo os custos de cálculo ao permitir que qualquer pessoa no mundo forneça GPUs, mas aumentando os custos de comunicação, uma vez que a rede agora deve coordenar os trabalhos de cálculo em hardware heterogéneo localizado longe. Gensyn ainda não foi lançado, mas é uma prova de conceito do que poderá ser possível no que diz respeito à construção de protocolos de treino descentralizados de aprendizagem automática.
Plataformas de computação descentralizadas também estão a abrir as possibilidades de design para os métodos de criação de inteligência artificial. Bittensor é um protocolo de computação descentralizada construído em Substrate que étentando respondera questão de, "como podemos transformar a IA numa abordagem colaborativa?" Bittensor tem como objetivo descentralizar e commodificar a geração de inteligência artificial. Lançado em 2021, o protocolo pretende aproveitar o poder de modelos colaborativos de aprendizagem de máquinas para iterar continuamente e produzir uma inteligência artificial melhor.
Bittensor inspira-se no Bitcoin, com um fornecimento de vinte e um milhões de sua moeda nativa TAO e um ciclo de redução de quatro anos (a primeira redução será em 2025). Em vez de usar a Prova de Trabalho para gerar o nonce correto e ganhar uma recompensa de bloco, o Bittensor depende de "Prova de Inteligência", exigindo que os mineradores executem modelos que produzam saídas em resposta a pedidos de inferência.
Bittensor originalmente dependia de um modelo de Mistura de Especialistas (MoE) para produzir saídas. Quando as solicitações de inferência são enviadas, em vez de depender de um modelo generalizado, os modelos MoE retransmitem a solicitação de inferência para os modelos mais precisos para um determinado tipo de entrada. Pense em construir uma casa onde você contrata uma variedade de especialistas para diferentes aspetos do processo de construção (ex: arquitetos, engenheiros, pintores, trabalhadores da construção etc...). O MoE aplica isso a modelos de aprendizado de máquina, tentando aproveitar as saídas de diferentes modelos dependendo da entrada. Como o fundador da Bittensor Ala Shaabana explicado, é como "falar com uma sala de pessoas inteligentes e obter a melhor resposta em vez de falar com uma pessoa". Devido à desafioscom a garantia do encaminhamento adequado, sincronização de mensagens para o modelo correto e incentivo, esta abordagem foi posta de lado até que o projeto esteja mais desenvolvido.
Existem dois atores principais na rede Bittensor: validadores e mineiros. Os validadores têm a tarefa de enviar pedidos de inferência aos mineiros, rever as suas saídas e classificá-las com base na qualidade das respostas. Para garantir que as suas classificações sejam fiáveis, os validadores recebem pontuações de “vtrust” com base na precisão das suas classificações em relação às classificações de outros validadores. Quanto mais alta for a pontuação de vtrust de um validador, mais emissões de TAO eles ganham. Isso tem como objetivo incentivar os validadores a alcançar consenso sobre as classificações de modelos ao longo do tempo, já que quanto mais validadores concordarem sobre as classificações, mais altas serão as suas pontuações individuais de vtrust.
Os mineradores, também chamados de servidores, são participantes da rede que executam os modelos de aprendizado de máquina reais. Os mineradores competem entre si para fornecer aos validadores as saídas mais precisas para uma determinada consulta, ganhando mais emissões de TAO quanto mais precisas forem suas saídas. Os mineradores podem gerar essas saídas da maneira que desejarem. Por exemplo, é inteiramente possível em um cenário futuro que um minerador do Bittensor possa ter treinado previamente modelos no Gensyn que eles utilizam para ganhar emissões de TAO.
Hoje, a maioria das interações acontece diretamente entre validadores e mineiros. Os validadores enviam inputs aos mineiros e solicitam outputs (ou seja, treinam o modelo). Uma vez que um validador tenha consultado os mineiros na rede e recebido suas respostas, eles classificam os mineiros e enviam suas classificações para a rede.
Esta interação entre validadores (que dependem de PoS) e mineiros (que dependem de Proof of Model, uma forma de PoW) – é chamada de Consenso Yuma. Procura incentivar os mineiros a produzir as melhores saídas para ganhar emissões de TAO e os validadores a classificar com precisão as saídas dos mineiros para ganhar uma pontuação de vtrust mais alta e aumentar suas recompensas de TAO formando o mecanismo de consenso da rede.
As interações no Bittensor consistem principalmente em validadores enviando pedidos aos mineradores e avaliando suas saídas. À medida que a qualidade dos mineradores contribuintes aumenta e a inteligência geral da rede cresce, no entanto, o Bittensor criará uma camada de aplicação em cima de sua pilha existente para que os desenvolvedores possam construir aplicações que consultem a rede Bittensor.
Em outubro de 2023, a Bittensor completou um passo importante para alcançar isso com o introduçãode sub-redes através da sua atualização Revolution. Sub-redes são redes individuais no Bittensor que incentivam comportamentos específicos. A Revolution abre a rede a qualquer pessoa interessada em criar uma sub-rede. Nos meses desde o seu lançamento, mais de 32 sub-redesforam lançados, incluindo os de prompt de texto, raspagem de dados, geração de imagens e armazenamento. À medida que as sub-redes amadurecem e se tornam prontas para o produto, os criadores de sub-redes também criarão integrações de aplicativos, permitindo que as equipas construam aplicações que consultem uma sub-rede específica. Algumas aplicações (chatbot, gerador de imagens, bot de resposta do Twitter, mercado de previsão) existem hoje, mas não existem incentivos formais para os validadores aceitarem e transmitirem essas consultas além das bolsas da fundação Bittensor.
Para fornecer uma ilustração mais clara, aqui está um exemplo de como o Bittensor pode funcionar uma vez que as aplicações estejam integradas na rede.
Sub-redes ganham TAO com base no seu desempenho avaliado pelo rede raiz. A rede raiz fica no topo de todas as sub-redes, agindo essencialmente como um tipo especial de sub-rede, e é gerida pelos 64 maiores validadores de sub-redes por participação. Os validadores da rede raiz classificam as sub-redes com base no seu desempenho e distribuem emissões de TAO para as sub-redes periodicamente. Deste modo, as sub-redes individuais atuam como os mineiros para a rede raiz.
Bittensor ainda está a passar por dores de crescimento à medida que expande a funcionalidade do protocolo para incentivar a geração de inteligência em várias sub-redes. Os mineiros continuam a desenvolver novas formas de atacar a rede para ganhar mais recompensas TAO, por exemplo, ligeiramentemodificandoa saída de uma execução de inferência altamente avaliada pelo seu modelo e depois submetendo várias variações. As propostas de governança que afetam toda a rede só podem ser submetidas e implementadas pelo Triunvirato, que é composto inteiramente por partes interessadas da Fundação Opentensor (importante notar que as propostas requerem aprovação pelo BittensorSenadocomposto por validadores Bittensor antes da implementação). E a tokenomia do projeto está em processo de reformulação para melhorar os incentivos para a utilização do TAO em sub-redes. O projeto está também a ganhar rapidamente notoriedade pelo seu abordagem única, com o CEO de um dos sites de IA mais popularesHuggingFaceindicando que Bittensor deve adicionar seus recursos ao site.
Num artigo recentemente publicado peçapor um desenvolvedor principal chamado 'Bittensor Paradigm', a equipe apresenta sua visão para que o Bittensor evolua eventualmente para ser 'agnóstico em relação ao que está sendo medido'. Na teoria, isso poderia permitir que o Bittensor desenvolvesse sub-redes incentivando qualquer tipo de comportamento, tudo alimentado pelo TAO. Permanecem consideráveis restrições práticas - principalmente demonstrar que essas redes são capazes de escalar para lidar com um conjunto tão diversificado de processos e que os incentivos subjacentes impulsionam o progresso que supera as ofertas centralizadas.
As secções acima fornecem uma visão geral de alto nível dos vários tipos de protocolos de computação de inteligência artificial descentralizada que estão a ser desenvolvidos. Embora ainda no início do seu desenvolvimento e adoção, eles fornecem a base de um ecossistema que poderia eventualmente facilitar a criação de "blocos de construção de IA", como o conceito de "Money Legos" do DeFi. A composabilidade das blockchains permissionless abre a possibilidade para que cada protocolo se baseie no outro para fornecer um ecossistema de inteligência artificial descentralizada mais abrangente.
Por exemplo, aqui está uma maneira pela qual Akash, Gensyn e Bittensor podem interagir para responder a um pedido de inferência.
Para ser claro, isto é simplesmente um exemplo do que poderá ser possível no futuro, não uma representação do ecossistema atual, das parcerias existentes ou dos resultados prováveis. As restrições à interoperabilidade, bem como outras considerações descritas abaixo, limitam consideravelmente as possibilidades de integração hoje. Além disso, a fragmentação da liquidez e a necessidade de utilizar múltiplos tokens podem ser prejudiciais para a experiência do utilizador, algo que tem sido apontoupelos fundadores da Akash e Bittensor.
Para além da computação, vários outros serviços de infraestrutura descentralizada estão a ser lançados para apoiar o ecossistema emergente de IA da cripto. Enumerá-los todos está para além do âmbito deste relatório, mas alguns exemplos interessantes e ilustrativos incluem:
Coletivamente, todos estes elementos apontam para as quase infinitas oportunidades de explorar modelos de mercado descentralizados que suportam modelos de IA, ou a infraestrutura circundante necessária para os desenvolver. Por agora, estes projetos encontram-se principalmente na fase de prova de conceito e é necessária muito mais investigação e desenvolvimento para demonstrar que podem operar à escala necessária para fornecer serviços abrangentes de IA.
As ofertas de computação descentralizada ainda estão em estágios iniciais de desenvolvimento. Elas estão apenas começando a disponibilizar acesso a capacidades de computação de ponta capazes de treinar os modelos de IA mais poderosos em produção. Para ganhar uma participação de mercado significativa, elas precisarão demonstrar vantagens práticas em comparação com as alternativas centralizadas. Possíveis gatilhos para uma adoção mais ampla incluem:
Os contratos inteligentes são um bloco de construção essencial de qualquer ecossistema blockchain. Dadas um conjunto específico de condições, eles executam automaticamente e reduzem ou eliminam a necessidade de uma terceira parte confiável, permitindo a criação de aplicações descentralizadas complexas, como as vistas no DeFi. No entanto, tal como existem na sua maioria hoje, os contratos inteligentes ainda são limitados na sua funcionalidade, uma vez que executam com base em parâmetros pré-definidos que devem ser atualizados.
Por exemplo, um contrato inteligente de protocolo de empréstimo/emprestimo é implementado com especificações sobre quando liquidar uma posição com base em determinadas taxas de empréstimo sobre o valor. Embora úteis num ambiente estático, numa situação dinâmica onde o risco está constantemente a mudar, estes contratos inteligentes devem ser continuamente atualizados para dar conta das mudanças na tolerância ao risco, criando desafios para contratos que não são regidos por processos centralizados. DAOs, por exemplo, que dependem de processos de governação descentralizada, podem não ser capazes de reagir suficientemente rapidamente para responder aos riscos sistémicos.
Os contratos inteligentes que integram a IA (ou seja, modelos de aprendizado de máquina) são uma maneira possível de aprimorar a funcionalidade, segurança e eficiência, ao mesmo tempo que melhoram a experiência geral do usuário. Essas integrações também introduzem riscos adicionais, pois é impossível garantir que os modelos que sustentam esses contratos inteligentes não possam ser explorados ou considerar situações de cauda longa (que são notoriamente difíceis de treinar modelos dados osescassez de entradas de dadospara eles).
A aprendizagem automática requer grandes quantidades de cálculo para executar modelos complexos, o que impede que os modelos de IA sejam executados diretamente dentro de contratos inteligentes devido aos altos custos. Um protocolo DeFi que forneça aos utilizadores acesso a um modelo de otimização de rendimento, por exemplo, teria dificuldade em executar esse modelo on-chain sem ter que pagar taxas de gás proibitivamente altas. Uma solução é aumentar a potência computacional da blockchain subjacente. No entanto, isso também aumenta as exigências no conjunto de validadores da cadeia, potencialmente comprometendo as propriedades de descentralização. Em vez disso, alguns projetos estão a explorar o uso de zkML para verificar saídas de forma confiável sem necessidade de computação intensiva on-chain.
Um comumO exemplo compartilhado que ilustra a utilidade do zkML é quando um usuário precisa que outra pessoa execute dados através de um modelo e também verifique se a contraparte realmente executou o modelo correto. Talvez um desenvolvedor esteja usando um provedor de computação descentralizado para treinar seus modelos e preocupa-se que o provedor esteja tentando reduzir custos usando um modelo mais barato com uma diferença quase imperceptível na saída. O zkML permite que o provedor de computação execute os dados através de seus modelos e gere uma prova que pode ser verificada on-chain para provar que a saída do modelo para a entrada fornecida está correta. Neste caso, o provedor do modelo teria a vantagem adicional de poder oferecer seus modelos sem precisar revelar os pesos subjacentes que produzem a saída.
O oposto também poderia ser feito. Se um utilizador quiser executar um modelo usando os seus dados, mas não quiser que o projeto que fornece o modelo tenha acesso aos seus dados devido a preocupações com a privacidade (ou seja, no caso de um exame médico ou informações comerciais proprietárias), então o utilizador poderia executar o modelo nos seus dados sem os partilhar e depois verificar se executou o modelo correto com uma prova. Estas possibilidades expandem consideravelmente o espaço de design para a integração da funcionalidade de IA e contrato inteligente ao lidar com restrições computacionais proibitivas.
Dado o estado inicial do espaço zkML, o desenvolvimento está principalmente focado na construção da infraestrutura e ferramentas necessárias para as equipas converterem os seus modelos e resultados em provas que possam ser verificadas na cadeia. Estes produtos abstraem o aspeto do zero-conhecimento do desenvolvimento tanto quanto possível.
EZKLeGizasão dois projetos que constroem esta ferramenta fornecendo provas verificáveis da execução de um modelo de aprendizagem automática. Ambos ajudam as equipas a construir modelos de aprendizagem automática para garantir que esses modelos possam então ser executados de forma a que os resultados possam ser verificados de forma confiável na cadeia. Ambos os projetos utilizam a Open Neural Network Exchange (ONNX) para transformar modelos de aprendizagem automática escritos em linguagens comuns como TensorFlow e Pytorch num formato padrão. Em seguida, produzem versões desses modelos que também produzem provas zk quando executadas. EZKL é de código aberto e produz zk-SNARKS, enquanto Giza é de código fechado e produz zk-STARKS. Ambos os projetos são atualmente apenas compatíveis com EVM.
EZKL demonstrou progressos significativos nos últimos meses na melhoria da sua solução zkML, focada principalmente emreduzir custos, melhorar a segurança, e acelerando a geração de provasEm novembro de 2023, por exemplo, a EZKL integrou uma nova biblioteca de GPU de código aberto que reduz o tempo de prova agregado em 35% e em janeiro EZKL anunciadoLilith, uma solução de software para integrar clusters de computação de alto desempenho e orquestrar trabalhos simultâneos ao usar o sistema de prova EZKL. Giza é única pelo facto de, para além de fornecer ferramentas para criar modelos de aprendizagem automática verificáveis, também planearem implementar um equivalente web3 deHugging Face, abrindo um mercado de usuários para colaboração zkML e compartilhamento de modelos, bem como eventualmente integrando ofertas de computação descentralizada. Em janeiro, a EZKL lançou um avaliação de referênciacomparando o desempenho do EZKL, Giza e RiscZero (discutido abaixo). EZKL demonstrou tempos de comprovação mais rápidos e uso de memória.
Modulus Labstambém está a desenvolver uma nova técnica de prova zk feita à medida para modelos de IA. A Modulus publicou um artigo chamadoO Custo da Inteligência(sugerindo os custos incrivelmente altos para executar modelos de IA on-chain), que comparou os sistemas zk-proof existentes na época para identificar capacidades e gargalos para melhorar as zk-proofs de modelos de IA. Publicado em janeiro de 2023, o artigo demonstra que as ofertas existentes são simplesmente muito caras e ineficientes para permitir aplicações de IA em escala. Baseando-se em sua pesquisa inicial, em novembro, Modulus@ModulusLabs/introducing-modulus-bring-ai-on-chain-d75dcb82c5e3">introduziu Remainder, um provador de conhecimento zero especializado construído especificamente para reduzir custos e tempo de prova para modelos de IA com o objetivo de torná-lo economicamente viável para projetos integrar modelos em seus contratos inteligentes em escala. Seu trabalho é de código fechado e, portanto, não pôde ser comparado com as soluções acima, mas foi recentemente referenciado no Vitalik’s postagem no blogem Cripto e IA.
O desenvolvimento de ferramentas e infraestruturas é crítico para o crescimento futuro do espaço zkML, pois reduz significativamente a fricção para as equipas que precisam implementar circuitos zk necessários para executar computação verificável offchain. A criação de interfaces seguras que permitem aos construtores não nativos de criptomoeda que trabalham em aprendizagem automática trazer os seus modelos on-chain permitirá uma maior experimentação de aplicações com casos de uso verdadeiramente inovadores. As ferramentas também abordam um grande obstáculo à adoção mais ampla da zkML, a falta de programadores conhecedores e interessados em trabalhar na interseção do conhecimento zero, aprendizagem automática e criptografia.
Soluções adicionais em desenvolvimento, referidas como “coprocessadores,” incluem RiscZero,AxiomeRitual. O termo coprocessador é principalmente semântico - essas redes desempenham muitos papéis diferentes, incluindo a verificação de cálculos offchain on-chain. Assim como EZKL, Giza e Modulus, eles têm como objetivo abstrair completamente o processo de geração de provas de conhecimento zero, criando essencialmente máquinas virtuais de conhecimento zero capazes de executar programas offchain e gerar provas para verificação on-chain. RiscZero e Axiom podem serviçomodelos de IA simples, uma vez que são destinados a serem coprocessadores mais gerais, enquanto Ritual é projetado para ser utilizado com modelos de IA.
Inferneté a primeira instância do Ritual e inclui um SDK Infernet que permite aos desenvolvedores enviar pedidos de inferência para a rede e receber um resultado e prova (opcionalmente) em troca. Um Node Infernet recebe esses pedidos e lida com a computação fora da cadeia antes de devolver um resultado. Por exemplo, uma DAO poderia criar um processo para garantir que todas as novas propostas de governança cumpram certas condições prévias antes de serem enviadas. Sempre que uma nova proposta é enviada, o contrato de governança desencadeia um pedido de inferência através do Infernet chamando um modelo de IA de governança específico da DAO. O modelo analisa a proposta para garantir que todos os critérios necessários tenham sido apresentados e devolve o resultado e a prova, aprovando ou negando a submissão da proposta.
Durante o próximo ano, a equipe Ritual planeia lançar funcionalidades adicionais que formam uma camada de infraestrutura base chamada de Supercadeia Ritual. Muitos dos projetos discutidos anteriormente poderiam conectar-se ao Ritual como fornecedores de serviços. Já a equipe Ritual integrou-se com EZKL para geração de prova e provavelmente em breve adicionará funcionalidades de outros principais fornecedores. Os nós do Infernet no Ritual também poderiam usar GPUs Akash ou io.net e modelos de consulta treinados em sub-redes Bittensor. Seu objetivo final é ser o provedor preferido para infraestrutura de IA aberta, capaz de atender a tarefas de aprendizado de máquina e outras tarefas relacionadas à IA de qualquer rede em qualquer carga de trabalho.
zkML ajuda conciliara contradição entre blockchains e IA, onde os primeiros são inerentemente limitados em recursos e os últimos requerem grandes quantidades de cálculos e dados. Como um dos fundadores da Gizacoloque-o, “Os casos de uso são tão abundantes... é como perguntar nos primeiros dias do Ethereum quais são os casos de uso dos contratos inteligentes... o que estamos a fazer é simplesmente expandir os casos de uso dos contratos inteligentes.” Como destacado acima, no entanto, o desenvolvimento hoje está a ocorrer principalmente ao nível das ferramentas e infraestrutura. As aplicações ainda estão na fase exploratória, com equipas desafiadas a demonstrar que o valor gerado pela implementação de modelos usando zkML supera a complexidade e os custos envolvidos.
Algumas aplicações hoje incluem:
zkML ainda está na fase experimental, com a maioria dos projetos focados na construção de infraestruturas primitivas e provas de conceito. Os desafios atuais incluem custos computacionais, limitações de memória, complexidade do modelo, ferramentas e infraestruturas limitadas, e talento de desenvolvimento. Em suma, há consideravelmente mais trabalho a ser feito antes que o zkML possa ser implementado em uma escala necessária para produtos de consumo.
À medida que o campo amadurece, e essas limitações são abordadas, o zkML tornar-se-á um componente crítico da integração de IA e cripto. No seu âmago, o zkML promete a capacidade de trazer cálculos off-chain de qualquer dimensão on-chain, mantendo as mesmas ou quase as mesmas garantias de segurança como se o cálculo tivesse sido executado on-chain. Até que essa visão seja concretizada, no entanto, os utilizadores iniciais da tecnologia continuarão a ter de equilibrar os compromissos entre a privacidade e segurança do zkML e a eficiência das alternativas.
Uma das integrações mais emocionantes de IA e cripto é a experimentação contínua com Agentes de IA. Os Agentes são bots autônomos capazes de receber, interpretar e executar tarefas usando um modelo de IA. Isso pode ser qualquer coisa, desde ter um assistente pessoal sempre disponível, ajustado às suas preferências, até contratar um agente financeiro que gerencia e ajusta sua carteira de acordo com suas preferências de risco.
Agentes e cripto encaixam bem juntos devido à infraestrutura de pagamentos sem permissão e sem confiança que a cripto fornece. Uma vez treinados, os agentes podem receber uma carteira para que possam transacionar com contratos inteligentes por conta própria. Agentes simples hoje, por exemplo, podem vasculhar a internet em busca de informações e em seguida efetuar negociações em mercados de previsão com base em um modelo.
Morpheusé um dos mais recentes projetos de agente de código aberto que chegará ao mercado na Ethereum e Arbitrum em 2024. O seu white paper foi publicado anonimamente em setembro de 2023, fornecendo a base para uma comunidade se formar e se desenvolver em torno (incluindo figuras notáveis como Erik Vorhees). O white paper inclui um download Protocolo do Agente Inteligente, que é um LLM de código aberto que pode ser executado localmente, gerido pela carteira do utilizador e interagir com contratos inteligentes. Utiliza um Classificação de Contrato Inteligentepara ajudar o agente a determinar quais contratos inteligentes são seguros para interagir com base em critérios como o número de transações processadas.
O white paper também fornece um quadro para a construção da Rede Morpheus, como as estruturas de incentivo e a infraestrutura necessária para tornar o Protocolo de Agente Inteligente operacional. Isso inclui incentivar os colaboradores a construir interfaces para interagir com os agentes, APIs para os desenvolvedores construírem aplicações que possam se conectar aos agentes para que possam interagir entre si, e soluções de nuvem para permitir que os utilizadores acedam à computação e armazenamento necessários para executar um agente num dispositivo de borda. O financiamento inicial para o projeto foi lançado no início de fevereiro, prevendo-se o lançamento do protocolo completo no 2T24.
Rede de Infraestrutura Autônoma Descentralizada (RIAD)é um novo protocolo de infraestrutura de agentes que está a construir uma economia de agente para agente na Solana. DAIN tem como objetivo tornar possível que agentes de diferentes empresas possam interagir entre si de forma transparente através de uma API universal, abrindo consideravelmente o espaço de design para agentes de IA com foco na implementação de agentes capazes de interagir tanto com produtos web2 como web3. Em janeiro, a DAIN anunciou o seu primeiroparceriacom o Asset Shield que permite aos utilizadores adicionar "assinantes agentes" às suas multisig que são capazes de interpretar transações e aprovar/negar com base nas regras definidas pelo utilizador.
Fetch.AIfoi um dos primeiros protocolos de Agentes de IA implantados e desenvolveu um ecossistema para construir, implantar e usar Agentes on-chain usando seu token FET e Fetch.AIcarteira. O protocolo fornece um conjunto abrangente de ferramentas e aplicações para usar Agentes, incluindo funcionalidades na carteira para interagir e solicitar agentes.
Autonolas, cujos fundadores incluem um membro anterior da equipa Fetch, é um mercado aberto para a criação e utilização de agentes de IA descentralizados. A Autonolas também fornece um conjunto de ferramentas para os programadores construírem agentes de IA hospedados fora da cadeia e que podem ligar-se a várias blockchains, incluindo Polygon, Ethereum, Gnosis Chain e Solana. Atualmente, têm alguns agentes ativos de prova de conceito.produtosincluindo para uso em mercados de previsão e governação de DAO.
SingularityNetestá a construir um mercado descentralizado para agentes de IA onde as pessoas podem implantar agentes de IA com foco estreito que podem ser contratados por outras pessoas ou agentes para executar tarefas complexas. Outros, como AlteredStateMachine, estão a desenvolver integrações de Agentes de IA com NFTs. Os utilizadores cunham NFTs com atributos aleatórios que lhes conferem pontos fortes e fracos para diferentes tarefas. Estes agentes podem então ser treinados para melhorar certos atributos para usos como jogos, DeFi, ou como assistente virtual e ser trocados com outros utilizadores.
Coletivamente, esses projetos vislumbram um ecossistema futuro de agentes capazes de trabalhar juntos não apenas para executar tarefas, mas também para ajudar a construir uma inteligência artificial geral. Agentes verdadeiramente sofisticados terão a capacidade de cumprir qualquer tarefa do usuário autonomamente. Por exemplo, em vez de ter que garantir que um Agente já tenha integrado com uma API externa (como um site de reserva de viagens) antes de usá-lo, agentes totalmente autônomos terão a capacidade de descobrir como contratar outro agente para integrar a API e depois executar a tarefa. Do ponto de vista do usuário, não haverá necessidade de verificar se um agente pode cumprir uma tarefa, porque o agente pode determinar isso por si próprio.
Em julho de 2023, Lightning Labslançou uma implementação de prova de conceito para usar Agentes na Lightning Network chamada LangChain Bitcoin Suite. O produto é especialmente interessante, pois visa enfrentar um problema crescente no mundo web 2 –gatedecaroChaves API para aplicações web.
LangChain resolve isso ao fornecer aos desenvolvedores um conjunto de ferramentas que permitem aos agentes comprar, vender e manter Bitcoin, bem como solicitar chaves de API e enviar micro pagamentos. Enquanto nos trilhos de pagamento tradicionais os pequenos micro pagamentos são proibitivos devido às taxas, na Lightning Network, os agentes podem enviar micro pagamentos ilimitados diariamente com taxas mínimas. Quando combinado com o framework de API medido de pagamento L402 da LangChain, isso poderia permitir que as empresas ajustem as taxas de acesso à sua API à medida que o uso aumenta e diminui, em vez de definir um padrão único proibitivo em termos de custos.
Num futuro em que a atividade on-chain é dominada por agentes que interagem com agentes, algo assim será necessário para garantir que os agentes possam interagir uns com os outros de uma forma que não seja proibitiva em termos de custos. Este é um dos primeiros exemplos de como o uso de agentes em trilhos de pagamento sem permissão e econômicos abre as possibilidades para novos mercados e interações econômicas.
O espaço dos Agentes ainda é incipiente. Os projetos estão apenas começando a implementar agentes funcionais que podem lidar com tarefas simples usando sua infraestrutura – que muitas vezes só é acessível a desenvolvedores e usuários sofisticados. Com o tempo, no entanto, um dos maiores impactos que os agentes de IA terão na cripto é a melhoria da experiência do usuário em todas as verticais. As transações começarão a passar de clique do mouse para baseadas em texto, com os usuários tendo a capacidade de interagir com agentes on-chain por meio de LLMs. Já existem equipes como Carteira Dawnestão a introduzir carteiras de chat-bot para os utilizadores interagirem na cadeia.
Além disso, não está claro como os agentes poderiam operar na web 2 onde os trilhos financeiros dependem de instituições bancárias regulamentadas que não operam 24/7 e não podem realizar transações transfronteiriças sem problemas. As Lyn Aldendestacou que os trilhos de cripto são especialmente atraentes em comparação com cartões de crédito devido à falta de chargebacks e à capacidade de processar microtransações. Se os agentes se tornarem um meio mais comum de transação, no entanto, é provável que os provedores de pagamento e aplicativos existentes se movam rapidamente para implementar a infraestrutura necessária para que eles operem nos trilhos financeiros existentes, mitigando alguns dos benefícios de usar cripto.
Por agora, os agentes provavelmente estarão confinados a transações cripto-a-cripto determinísticas, onde uma saída dada é garantida para uma entrada dada. Ambos os modelos, que ditam a capacidade destes agentes de descobrir como executar tarefas complexas, e as ferramentas, que expandem o escopo do que podem realizar, requerem mais desenvolvimento. Para que os agentes de cripto se tornem úteis fora de casos de uso de cripto novos em cadeia, será necessária uma integração e aceitação mais amplas da cripto como forma de pagamento, bem como clareza regulamentar. No entanto, à medida que estes componentes se desenvolvem, os agentes estão prontos para se tornar um dos maiores consumidores de cálculo descentralizado e soluções zkML discutidas acima, atuando de forma autônoma e não determinística para receber e resolver qualquer tarefa.
A IA introduz às criptomoedas as mesmas inovações que já vemos acontecendo na web2, aprimorando tudo, desde o desenvolvimento de infraestrutura até a experiência do usuário e acessibilidade. No entanto, os projetos ainda estão no início de sua evolução e a integração de criptografia e IA de curto prazo será dominada principalmente por integrações offchain.
Produtos como Copilotovai“10x”eficiência do programador, com camada 1seDeFiaplicações já em funcionamento plataformas de desenvolvimento assistidas por IA em parceria com grandes corporações como a Microsoft. Empresas como Cub3.aieMáquina de testeestão a desenvolver integrações de IA para auditoria de contratos inteligentes e monitorização de ameaças em tempo real para melhorar a segurança on-chain. E os chatbots LLM estão a ser treinados usando dados on-chain, documentos de protocolo e aplicações para fornecer aos utilizadores uma acessibilidade e UX melhoradas.
Para integrações mais avançadas que realmente aproveitem as tecnologias subjacentes da cripto, o desafio continua a ser demonstrar que a implementação de soluções de IA on-chain é tanto tecnicamente possível como economicamente viável em grande escala. Os desenvolvimentos em cálculo descentralizado, zkML e Agentes de IA apontam para verticais promissoras que estão a lançar as bases para um futuro onde a cripto e a IA estão profundamente interligadas.