Galaxy Digital: Explorando a Interseção da Criptomoeda e da IA

intermediário2/28/2024, 4:55:32 AM
Este artigo explora a interseção da criptomoeda e inteligência artificial, destacando o surgimento de blockchains públicos como um dos avanços mais profundos na história da ciência da computação. Ele discute como o desenvolvimento da IA já está tendo um impacto significativo em nosso mundo.

Introdução

O surgimento de blockchains públicos marca um avanço profundo na história da ciência da computação, enquanto o desenvolvimento de inteligência artificial está tendo um impacto significativo em nosso mundo. A tecnologia blockchain oferece novos modelos para liquidação de transações, armazenamento de dados e design de sistemas, enquanto a inteligência artificial representa uma revolução em computação, análise e entrega de conteúdo. Inovações nessas indústrias estão desencadeando novos casos de uso que poderiam acelerar a adoção de ambos os setores nos próximos anos. Este relatório examina a integração contínua de criptomoedas e inteligência artificial, focando em casos de uso inovadores que visam preencher a lacuna entre os dois e alavancar suas forças. Ele especificamente analisa projetos que desenvolvem protocolos de computação descentralizada, infraestrutura de aprendizado de máquina de conhecimento zero (zkML) e agentes de IA.

A criptomoeda oferece uma camada de liquidação permissiva, sem confiança e componível para a IA, desbloqueando casos de uso como acesso mais fácil ao hardware por meio de sistemas de computação descentralizados, construindo agentes de IA capazes de executar tarefas complexas que exigem troca de valor e desenvolvendo soluções de identidade e procedência para combater ataques de Sybil e deepfakes. A IA traz para a criptomoeda muitos dos mesmos benefícios vistos na Web 2.0, incluindo experiências aprimoradas do usuário e do desenvolvedor por meio de grandes modelos de linguagem como ChatGPT e Copilot, e potencial significativamente melhorado de funcionalidade e automação para contratos inteligentes. A blockchain fornece o ambiente transparente e rico em dados necessário para a IA, embora o poder de computação limitado da blockchain seja uma grande barreira para a integração direta de modelos de IA.

As experiências e a eventual adoção na interseção da criptomoeda e da IA são impulsionadas pelas mesmas forças que impulsionam os casos de uso mais promissores para a criptomoeda: acesso a uma camada de coordenação sem permissão e sem confiança, facilitando uma melhor transferência de valor. Dado o vasto potencial, os intervenientes neste campo precisam de compreender as formas fundamentais como essas tecnologias se intersectam.

Principais pontos:

    • Em um futuro próximo (de 6 meses a 1 ano), a integração de criptomoeda e IA será dominada por aplicações de IA que melhoram a eficiência dos desenvolvedores, a auditabilidade e segurança de contratos inteligentes e a acessibilidade do usuário. Essas integrações não são específicas para criptomoedas, mas aprimoram a experiência para os desenvolvedores e usuários on-chain.
    • À medida que as GPUs de alto desempenho continuam em falta, os produtos de computação descentralizada estão implementando produtos GPU personalizados para IA para impulsionar a adoção.
    • A experiência do usuário e obstáculos regulatórios continuam sendo obstáculos para atrair clientes de computação descentralizada. No entanto, os desenvolvimentos recentes da OpenAI e as revisões regulatórias em andamento nos EUA destacam a proposição de valor de redes de IA descentralizadas, sem permissão, à prova de censura e descentralizadas.
    • A integração de IA on-chain, especialmente contratos inteligentes capazes de utilizar modelos de IA, requer melhorias na tecnologia zkML e outros métodos para verificar cálculos off-chain. A falta de ferramentas abrangentes, talento de desenvolvedor e altos custos são barreiras para a adoção.
    • Agentes de IA são bem adequados para criptomoedas, onde os usuários (ou os próprios agentes) podem criar carteiras para transacionar com outros serviços, agentes ou indivíduos - uma capacidade não possível com os sistemas financeiros tradicionais. Uma integração adicional com produtos não cripto é necessária para uma adoção mais ampla.

Termos

A inteligência artificial é o uso de computação e máquinas para imitar as capacidades de raciocínio e resolução de problemas dos humanos.

As Redes Neurais são um método de treinar modelos de inteligência artificial. Elas processam entradas através de camadas algorítmicas discretas, refinando-as até que a saída desejada seja produzida. Redes neurais consistem em equações com pesos que podem ser ajustados para alterar a saída. Elas podem exigir dados extensos e computação para treinamento a fim de garantir saídas precisas. Este é um dos modos mais comuns de desenvolver modelos de IA (por exemplo, o ChatGPT depende de um processo de rede neural baseado em Transformadores).

O treinamento é o processo de desenvolvimento de redes neurais e outros modelos de IA. Requer uma quantidade significativa de dados para treinar modelos a interpretar corretamente as entradas e produzir saídas precisas. Durante o treinamento, os pesos da equação do modelo são continuamente modificados até que uma saída satisfatória seja produzida. O treinamento pode ser muito custoso. Por exemplo, o ChatGPT usa dezenas de milhares de suas próprias GPUs para processar dados. Equipes com menos recursos frequentemente contam com provedores de computação especializados, como Amazon Web Services, Azure e Google Cloud providers.

A inferência é o uso real dos modelos de IA para obter saídas ou resultados (por exemplo, usando o ChatGPT para criar um esboço para um artigo sobre a interseção de criptomoedas e IA). A inferência é usada ao longo do processo de treinamento e no produto final. Devido aos custos computacionais, mesmo após o treinamento estar completo, seus custos operacionais podem ser altos, embora sua intensidade computacional seja menor do que a do treinamento.

Provas de Conhecimento Zero (ZKP) permitem a verificação de declarações sem revelar informações subjacentes. Isso é útil em criptomoeda por duas razões principais: 1) Privacidade e 2) Dimensionamento. Para privacidade, permite que os usuários realizem transações sem revelar informações sensíveis (por exemplo, quanto ETH está em uma carteira). Para dimensionamento, permite que computações off-chain sejam comprovadas on-chain mais rapidamente do que reexecutar as computações. Isso permite que blockchains e aplicativos executem computações de forma barata off-chain e, em seguida, as verifiquem on-chain. Para obter mais informações sobre conhecimento zero e seu papel nas Máquinas Virtuais Ethereum, consulte o relatório de Christine Kim sobre zkEVMs: O Futuro da Escalabilidade do Ethereum.

Mapa de Mercado de IA/Criptomoeda

Projetos que integram inteligência artificial e criptomoeda ainda estão construindo a infraestrutura subjacente necessária para suportar interações de IA em grande escala na cadeia.

Mercados de computação descentralizada estão surgindo para fornecer o vasto hardware físico necessário para treinar e inferir modelos de IA, principalmente na forma de Unidades de Processamento Gráfico (GPUs). Esses mercados de dois lados conectam aqueles que alugam e buscam alugar computação, facilitando a transferência de valor e verificação de cálculos. Dentro da computação descentralizada, várias subcategorias que oferecem funcionalidades adicionais estão surgindo. Além de mercados bilaterais, este relatório também analisa provedores de treinamento de aprendizado de máquina que oferecem treinamento verificável e ajuste fino de saídas, bem como projetos dedicados a vincular computação e geração de modelos para permitir IA, frequentemente referidos como redes de incentivo inteligentes.

zkML é uma área de foco emergente para projetos que visam fornecer saídas de modelo verificáveis on-chain de maneira economicamente viável e oportuna. Esses projetos principalmente permitem que aplicativos lidem com solicitações computacionais pesadas off-chain e, em seguida, postem saídas verificáveis on-chain, provando que a carga de trabalho off-chain foi concluída e precisa. zkML é atualmente tanto caro quanto demorado, mas está sendo cada vez mais usado como solução. Isso é evidente no crescente número de integrações entre os provedores zkML e aplicativos DeFi/jogos que desejam alavancar modelos de IA.

O amplo fornecimento de computação e a capacidade de verificar a computação on-chain abrem as portas para agentes de IA on-chain. Os agentes são modelos treinados capazes de executar solicitações em nome dos usuários. Os agentes oferecem a oportunidade de aprimorar significativamente a experiência on-chain, permitindo que os usuários executem transações complexas simplesmente conversando com um chatbot. No entanto, até o momento, os projetos de agentes ainda estão focados no desenvolvimento da infraestrutura e ferramentas para implantação fácil e rápida.

Computação Descentralizada

Visão geral

A Inteligência Artificial requer uma extensa computação para treinar modelos e executar inferências. Ao longo da última década, à medida que os modelos se tornaram cada vez mais complexos, a demanda por computação cresceu exponencialmente. Por exemplo, a OpenAI observou que de 2012 a 2018, a demanda computacional de seus modelos dobrava a cada dois anos, passando a dobrar a cada três meses e meio. Isso levou a um aumento na demanda por GPUs, com alguns mineradores de criptomoedas até mesmo redirecionando suas GPUs para fornecer serviços de computação em nuvem. À medida que a competição pelo acesso computacional se intensifica e os custos aumentam, alguns projetos estão aproveitando a tecnologia criptográfica para oferecer soluções de computação descentralizadas. Eles fornecem computação sob demanda a preços competitivos, permitindo que equipes treinem e executem modelos de forma acessível. Em alguns casos, os compromissos podem envolver desempenho e segurança.

A demanda por GPUs de última geração (por exemplo, aquelas produzidas pela Nvidia) é significativa. Em setembro, a Tether adquiriu uma participação na mineradora de bitcoin alemã Northern Data, gastando, segundo relatos, US$ 420 milhões para comprar 10.000 GPUs H100 (uma das GPUs mais avançadas para treinamento de IA). O tempo de espera para adquirir hardware de primeira linha pode ser de pelo menos seis meses, se não mais em muitos casos. Além disso, as empresas muitas vezes são obrigadas a assinar contratos de longo prazo para garantir volumes computacionais que talvez nem usem. Isso pode levar a situações em que os recursos computacionais estão disponíveis, mas não acessíveis no mercado. Os sistemas de computação descentralizada ajudam a resolver essas ineficiências de mercado, criando um mercado secundário onde os proprietários de computação podem imediatamente sublocar sua capacidade excedente mediante notificação, liberando assim novo suprimento.

Além do preço competitivo e da acessibilidade, uma proposta de valor chave da computação descentralizada é a resistência à censura. O desenvolvimento de IA de ponta está cada vez mais dominado por grandes empresas de tecnologia com capacidades inigualáveis de acesso computacional e de dados. O primeiro tema chave destacado no Relatório Anual de 2023 do Índice de IA foi a crescente superação da academia pela indústria no desenvolvimento de modelos de IA, concentrando o controle nas mãos de alguns líderes de tecnologia. Isso levanta preocupações sobre seu potencial de exercer influência significativa na definição das normas e valores que sustentam os modelos de IA, especialmente depois que essas empresas de tecnologia pressionam por regulamentações para limitar o desenvolvimento de IA incontrolável.

Verticais em Computação Descentralizada

Vários modelos de computação descentralizada surgiram nos últimos anos, cada um com seu próprio foco e compensações.

Computação generalizada

De uma forma geral, projetos como Akash, io.net, iExec e Cudos são aplicações de computação descentralizada, oferecendo além de dados e soluções computacionais gerais, acesso a computação especializada para treinamento e inferência de IA. Akash se destaca como a única plataforma de "super nuvem" totalmente de código aberto, utilizando o Cosmos SDK para sua rede de prova de participação. AKT, o token nativo da Akash, serve como método de pagamento para garantir a rede e incentivar a participação. Lançada em 2020, a mainnet da Akash inicialmente focou em um mercado de computação em nuvem sem permissão, apresentando serviços de locação de armazenamento e CPU. Em junho de 2023, a Akash introduziu um testnet centrado em GPU, seguido pelo lançamento de um mainnet com GPU em setembro, permitindo aluguéis de GPU para treinamento e inferência de IA.

O ecossistema Akash é composto por dois participantes principais: os locatários, que buscam recursos de computação, e os provedores, os fornecedores de computação. Um processo de leilão reverso facilita a correspondência de locatários e provedores, onde os locatários lançam seus requisitos de computação, incluindo locais de servidor ou tipos de hardware preferenciais e seu orçamento. Os fornecedores então licitam, com o menor lance adjudicando a tarefa. Os validadores mantêm a integridade da rede, com um limite atual de 100 validadores, planejado para aumentar ao longo do tempo. A participação como validador está aberta àqueles que apostam mais AKT do que o validador atual menos apostado. Os detentores de AKT podem delegar seus tokens a validadores, com taxas de transação e recompensas de bloco distribuídas no AKT. Além disso, para cada locação, a rede Akash ganha uma "take rate", decidida pela comunidade, distribuída aos detentores da AKT.

Mercado secundário

O mercado secundário de computação descentralizada visa resolver as ineficiências no mercado computacional existente, onde as restrições de oferta levam as empresas a acumular recursos além de suas necessidades e contratos de longo prazo com provedores de nuvem limitam ainda mais a oferta. As plataformas de computação descentralizada desbloqueiam nova oferta, permitindo que qualquer pessoa com necessidades computacionais se torne um provedor.

Se a explosão na demanda por GPUs para treinamento de IA se traduz em uso de rede sustentado na Akash, ainda está por ver. Historicamente, a Akash tem oferecido serviços de mercado baseados em CPU com um desconto de 70-80% em comparação com alternativas centralizadas, mas esta estratégia de preços não impulsionou significativamente a adoção. A atividade da rede, medida pelos contratos ativos, estagnou, com uma média de utilização de 33% de computação, 16% de memória e 13% de armazenamento até o segundo trimestre de 2023, impressionante para a adoção on-chain, mas indicativo de que a oferta ainda supera a demanda. Meio ano desde o lançamento da rede GPU, é cedo demais para uma avaliação definitiva da adoção a longo prazo, embora os primeiros sinais mostrem uma utilização média de 44% de GPUs, impulsionada principalmente pela demanda por GPUs de alta qualidade como a A100, mais de 90% das quais foram alugadas.

As despesas diárias de Akash quase dobraram desde a introdução das GPUs, atribuídas em parte ao aumento do uso de outros serviços, especialmente CPUs, mas principalmente devido ao novo uso de GPUs.

Os preços são competitivos com, ou em alguns casos mais caros do que, concorrentes centralizados como Lambda Cloud e Vast.ai. A alta demanda por GPUs de ponta, como o H100 e A100, significa que a maioria dos proprietários desse tipo de equipamento não está interessada em listá-los em um mercado com preços competitivos.

Apesar dos lucros iniciais, as barreiras de adoção permanecem. As redes de computação descentralizadas devem dar mais passos para gerar demanda e oferta, com equipes explorando a melhor forma de atrair novos usuários. Por exemplo, no início de 2024, a Akash aprovou a Proposta 240, aumentando a emissão de AKT para os fornecedores de GPU para incentivar mais oferta, especialmente para GPUs de alta qualidade. As equipes também estão trabalhando em modelos de prova de conceito para demonstrar as capacidades ao vivo de suas redes para usuários em potencial. A Akash está treinando seus modelos fundamentais e lançou produtos de geração de chatbot e imagem que utilizam GPUs da Akash. Da mesma forma, a io.net desenvolveu um modelo de difusão estável e está lançando novas funcionalidades de rede para melhorar a performance e a escala da rede.

Treinamento descentralizado de aprendizado de máquina

Além das plataformas de computação gerais que podem atender às demandas de inteligência artificial, também está surgindo um grupo de fornecedores profissionais de GPU de IA focados no treinamento de modelos de aprendizado de máquina. Por exemplo, a Gensyn está “coordenando energia e hardware para construir inteligência coletiva”, com a filosofia de que “se alguém quer treinar algo e alguém está disposto a treiná-lo, então este treinamento deve ser permitido acontecer”.

Este protocolo envolve quatro participantes principais: submetedores, solucionadores, validadores e delatores. Os submetedores enviam tarefas com solicitações de treinamento para a rede. Essas tarefas incluem os objetivos de treinamento, os modelos a serem treinados e os dados de treinamento. Como parte do processo de submissão, os submetedores precisam pagar antecipadamente o custo computacional estimado exigido pelos solucionadores.

Após a submissão, as tarefas são atribuídas aos solucionadores que realmente realizam o treinamento do modelo. Em seguida, os solucionadores enviam as tarefas concluídas para os validadores, que são responsáveis por verificar o treinamento para garantir que tenha sido concluído corretamente. Os delatores têm a tarefa de garantir que os validadores ajam honestamente. Para motivar os delatores a participar da rede, a Gensyn planeja oferecer regularmente evidências deliberadamente incorretas, recompensando os delatores que as detectarem.

Além de fornecer computação para cargas de trabalho relacionadas à IA, uma proposição de valor-chave da Gensyn é seu sistema de verificação, que ainda está em desenvolvimento. A verificação é necessária para garantir que a computação externa pelos provedores de GPU seja executada corretamente (ou seja, garantindo que os modelos dos usuários sejam treinados da maneira que desejam). A Gensyn aborda esse problema com uma abordagem única, utilizando métodos de verificação inovadores chamados 'provas de aprendizado probabilísticas, protocolos precisos baseados em gráficos e jogos de incentivo no estilo Truebit.' Este é um modelo de resolução otimista que permite que validadores confirmem que os solucionadores executaram o modelo corretamente sem precisar rerodar completamente o modelo, um processo que é caro e ineficiente.

Além do seu inovador método de verificação, a Gensyn também afirma ser econômica em comparação com as alternativas centralizadas e concorrentes de criptomoedas - oferecendo preços de treinamento de ML até 80% mais baratos que a AWS, enquanto supera projetos similares como o Truebit em testes.

Se esses resultados iniciais podem ser replicados em grande escala em redes descentralizadas ainda está para ser visto. Gensyn espera utilizar a capacidade computacional excedente de provedores como pequenos centros de dados, usuários varejistas e eventualmente pequenos dispositivos móveis como smartphones. No entanto, como a própria equipe da Gensyn admite, confiar em provedores de computação heterogêneos introduz alguns novos desafios.

Para provedores centralizados como Google Cloud e Coreweave, os custos de computação são caros, mas a comunicação entre cálculos (largura de banda e latência) é barata. Esses sistemas são projetados para facilitar a comunicação entre hardware o mais rápido possível. O Gensyn interrompe essa estrutura reduzindo os custos de computação ao permitir que qualquer pessoa no mundo ofereça GPUs, mas ao mesmo tempo aumenta os custos de comunicação, já que a rede agora deve coordenar trabalhos de computação em hardware heterogêneo distante. O Gensyn ainda não foi lançado, mas representa uma prova de conceito que pode ser alcançada ao construir um protocolo de treinamento de aprendizado de máquina descentralizado.

Inteligência Geral Descentralizada

Plataformas de computação descentralizada também oferecem a possibilidade de projetar métodos para a criação de inteligência artificial. Bittensor é um protocolo de computação descentralizada construído em Substrate, tentando responder à pergunta: “Como transformamos a inteligência artificial em um método colaborativo?” Bittensor tem como objetivo alcançar a descentralização e a mercantilização da geração de IA. Lançado em 2021, espera utilizar o poder de modelos colaborativos de aprendizado de máquina para iterar continuamente e produzir uma IA melhor.

Bittensor se inspira no Bitcoin, com sua moeda nativa, TAO, tendo um limite de oferta de 21 milhões e um ciclo de redução pela metade a cada quatro anos (a primeira redução pela metade está programada para 2025). Ao contrário da utilização de Prova de Trabalho para gerar números aleatórios corretos e ganhar recompensas de bloco, o Bittensor depende de "Prova de Inteligência", exigindo que os mineradores executem modelos para gerar saídas em resposta a solicitações de inferência.

Incentivizando Inteligência

Inicialmente, o Bittensor dependia de um modelo Mixture of Experts (MoE) para gerar saídas. Quando uma solicitação de inferência é enviada, o modelo MoE não depende de um modelo generalizado, mas encaminha a solicitação para o modelo mais preciso para o tipo de entrada fornecida. Imagine construir uma casa, onde você contrata vários especialistas para diferentes aspectos do processo de construção (por exemplo, arquitetos, engenheiros, pintores, trabalhadores da construção civil, etc.). O MoE aplica isso a modelos de aprendizado de máquina, tentando aproveitar as saídas de diferentes modelos com base na entrada. Como explicado pelo fundador do Bittensor, Ala Shaabana, isso é como “falar com uma sala cheia de pessoas inteligentes para obter a melhor resposta, em vez de falar com uma pessoa”. Devido aos desafios em garantir o roteamento correto, a sincronização de mensagens para o modelo correto e os incentivos, esse método foi arquivado até um desenvolvimento posterior do projeto.

Na rede Bittensor, existem dois participantes principais: validadores e mineradores. Os validadores enviam pedidos de inferência aos mineradores, revisam suas saídas e os classificam com base na qualidade de suas respostas. Para garantir que suas classificações sejam confiáveis, os validadores recebem uma pontuação de “vtrust” com base na consistência de suas classificações com outros validadores. Quanto maior a pontuação de vtrust de um validador, mais emissões de TAO eles recebem. Isso é para incentivar os validadores a alcançar um consenso sobre as classificações do modelo ao longo do tempo, pois quanto mais validadores concordam com as classificações, maior será a pontuação individual de vtrust deles.

Mineiros, também conhecidos como servidores, são participantes da rede que executam os modelos reais de aprendizado de máquina. Eles competem para fornecer as saídas mais precisas para as consultas dos validadores, e quanto mais precisas forem as saídas, mais emissões de TAO eles ganham. Os mineiros são livres para gerar essas saídas como desejarem. Por exemplo, no futuro, é inteiramente possível que os mineiros do Bittensor tenham modelos previamente treinados no Gensyn e os usem para ganhar emissões de TAO.

Hoje, a maioria das interações ocorre diretamente entre validadores e mineradores. Os validadores enviam inputs para os mineradores e solicitam outputs (ou seja, treinamento de modelo). Uma vez que os validadores consultam os mineradores na rede e recebem suas respostas, eles classificam os mineradores e enviam suas classificações para a rede.

A interação entre validadores (dependendo de PoS) e mineradores (dependendo do Modelo de Prova, uma forma de PoW) é conhecida como consenso Yuma. O objetivo é incentivar os mineradores a produzir as melhores saídas para ganhar emissões de TAO e incentivar os validadores a classificar com precisão as saídas dos mineradores, ganhando pontuações de vtrust mais altas e aumentando suas recompensas de TAO, formando assim um mecanismo de consenso para a rede.

Sub-redes e Aplicações

As interações no Bittensor envolvem principalmente validadores enviando solicitações para os mineradores e avaliando suas saídas. No entanto, à medida que a qualidade dos mineradores contribuintes melhora e a inteligência geral da rede cresce, o Bittensor está criando uma camada de aplicação em cima de sua pilha existente para que os desenvolvedores possam construir aplicativos que consultem a rede Bittensor.

Em outubro de 2023, o Bittensor introduziu sub-redes através da atualização Revolution, dando um passo significativo para alcançar esse objetivo. As sub-redes são redes separadas no Bittensor que incentivam comportamentos específicos. A Revolution abriu a rede para qualquer pessoa interessada em criar sub-redes. Em poucos meses após o seu lançamento, mais de 32 sub-redes foram lançadas, incluindo sub-redes para prompts de texto, scraping de dados, geração de imagens e armazenamento. À medida que as sub-redes amadurecem e se tornam prontas para o produto, os criadores de sub-redes também criarão integrações de aplicativos, permitindo que equipes construam aplicativos que consultem sub-redes específicas. Alguns aplicativos, como chatbots, geradores de imagens, bots de resposta do Twitter e mercados de previsão, já existem, mas não há incentivos formais além do financiamento da Fundação Bittensor para validadores aceitarem e encaminharem essas consultas.

Para uma explicação mais clara, abaixo está um exemplo de como o Bittensor pode funcionar uma vez que as aplicações estejam integradas na rede.

Subredes ganham TAO com base no desempenho avaliado pela rede raiz. A rede raiz, situada acima de todas as subredes, atua essencialmente como uma subrede especial e é gerenciada pelos 64 maiores validadores de subredes por participação. Os validadores da rede raiz classificam as subredes com base em seu desempenho e alocam periodicamente emissões de TAO para as subredes. Dessa forma, as subredes individuais atuam como mineradores para a rede raiz.

Visão da Bittensor

O Bittensor ainda está passando por dores de crescimento à medida que expande a funcionalidade do protocolo para incentivar a geração de inteligência em vários sub-redes. Os mineradores estão constantemente elaborando novas maneiras de atacar a rede em busca de mais recompensas TAO, como alterando ligeiramente a saída de inferências altamente classificadas executadas por seus modelos e, em seguida, enviando várias variantes. Propostas de governança que afetam toda a rede só podem ser enviadas e implementadas pelo Triunvirato, composto inteiramente por partes interessadas da Fundação Opentensor (notavelmente, as propostas requerem aprovação do Senado do Bittensor, composto por validadores do Bittensor, antes da implementação). A tokenômica do projeto está sendo modificada para melhorar os incentivos para o uso trans-sub-rede de TAO. O projeto também rapidamente ganhou notoriedade por sua abordagem única, com o CEO de um dos sites de IA mais populares, HuggingFace, afirmando que o Bittensor deveria adicionar seus recursos ao site.

Em um artigo recente intitulado “Paradigma Bittensor” publicado pelos desenvolvedores principais, a equipe delineou a visão do Bittensor de eventualmente se tornar “agnóstico em relação ao que é medido”. Teoricamente, isso poderia permitir que o Bittensor desenvolvesse sub-redes que incentivam qualquer tipo de comportamento suportado pelo TAO. Ainda existem consideráveis limitações práticas – principalmente, provar que essas redes podem escalar para lidar com uma gama tão diversa de processos e que os incentivos potenciais impulsionam o progresso além dos produtos centralizados.

Construindo uma Pilha de Computação Descentralizada para Modelos de Inteligência Artificial

A seção acima fornece uma visão abrangente de vários tipos de protocolos de computação descentralizada de inteligência artificial (IA) atualmente em desenvolvimento. Em suas fases iniciais de desenvolvimento e adoção, eles lançam as bases para um ecossistema que poderia eventualmente facilitar a criação de “blocos de construção de IA”, semelhante ao conceito de “money Legos” em DeFi. A composabilidade das blockchains sem permissão permite a possibilidade de que cada protocolo seja construído sobre outro, criando um ecossistema de IA descentralizado mais abrangente.
Por exemplo, é assim que Akash, Gensyn e Bittensor podem interagir para responder a pedidos de inferência.

É crucial entender que este é apenas um exemplo do que poderia acontecer no futuro, não uma representação do ecossistema atual, parcerias existentes ou resultados potenciais. As limitações de interoperabilidade e outras considerações descritas abaixo restringem significativamente as possibilidades de integração hoje. Além disso, a fragmentação da liquidez e a necessidade de usar vários tokens poderiam prejudicar a experiência do usuário, um ponto observado pelos fundadores da Akash e Bittensor.

Outros Produtos Descentralizados

Além da computação, vários outros serviços de infraestrutura descentralizada foram introduzidos para apoiar o ecossistema emergente de IA dentro do espaço de criptomoeda. Listar todos eles está além do escopo deste relatório, mas alguns exemplos interessantes e ilustrativos incluem:

  • Ocean: Um mercado de dados descentralizado onde os usuários podem criar NFTs de dados representando seus dados e comprar usando tokens de dados. Os usuários podem monetizar seus dados e ter maior soberania sobre eles, ao mesmo tempo em que fornecem às equipes de IA acesso aos dados necessários para desenvolver e treinar modelos.
  • Grass: Um mercado descentralizado de largura de banda onde os usuários podem vender seu excesso de largura de banda para empresas de IA, que a utilizam para coletar dados da internet. Construído na rede Wynd, isso permite que os indivíduos monetizem sua largura de banda e oferece aos compradores de largura de banda uma perspectiva mais diversificada do que os usuários individuais veem online (já que o acesso à internet individual é frequentemente personalizado com base em seu endereço IP).
  • HiveMapper: Constrói um produto de mapa descentralizado incorporando informações coletadas de motoristas diários. HiveMapper depende da IA para interpretar imagens coletadas das câmeras de painel dos usuários e recompensa os usuários com tokens por ajudar a ajustar os modelos de IA através do Feedback de Aprendizagem Humana Reforçada (RHLF).

Em geral, esses exemplos apontam para as oportunidades quase ilimitadas de explorar modelos de mercado descentralizados que suportam modelos de IA ou a infraestrutura periférica necessária para desenvolvê-los. Atualmente, a maioria desses projetos está na fase de prova de conceito e requer mais pesquisas e desenvolvimento para provar que podem operar na escala necessária para fornecer serviços de IA abrangentes.

Perspectiva

Produtos de computação descentralizada ainda estão em estágios iniciais de desenvolvimento. Eles acabaram de começar a lançar capacidades de computação de ponta, capazes de treinar os modelos de inteligência artificial mais poderosos em produção. Para obter uma participação de mercado significativa, eles precisam demonstrar vantagens reais sobre alternativas centralizadas. Gatilhos potenciais para uma adoção mais ampla incluem:

  • Fornecimento/Demanda de GPU. A escassez de GPUs combinada com demandas de computação em rápido crescimento está levando a uma corrida armamentista de GPU. Devido às limitações de GPU, a OpenAI, às vezes, restringiu o acesso à sua plataforma. Plataformas como Akash e Gensyn podem oferecer alternativas competitivas em custos para equipes que requerem computação de alto desempenho. Os próximos 6-12 meses apresentam uma oportunidade particularmente única para os provedores de computação descentralizada atrair novos usuários que são obrigados a considerar produtos descentralizados devido à falta de acesso ao mercado mais amplo. Além disso, com o desempenho cada vez mais melhorado de modelos de código aberto como o LLaMA2 da Meta, os usuários não enfrentam mais as mesmas barreiras ao implantar modelos eficazes ajustados, tornando os recursos de computação o principal gargalo. No entanto, a mera existência de plataformas não garante um fornecimento de computação suficiente e demanda do consumidor correspondente. A aquisição de GPUs de alta qualidade continua sendo um desafio, e o custo nem sempre é o principal motivador da demanda. Essas plataformas enfrentarão desafios ao demonstrar os benefícios reais do uso de opções de computação descentralizada (seja devido a custo, resistência à censura, tempo de atividade e resiliência, ou acessibilidade) para acumular usuários fiéis. Eles devem agir rapidamente, pois os investimentos e construções de infraestrutura de GPU estão avançando a um ritmo surpreendente.
  • Regulamento. A regulamentação continua sendo uma barreira para o movimento de computação descentralizada. A curto prazo, a falta de regulamentação clara significa que tanto os prestadores como os utilizadores enfrentam riscos potenciais na utilização destes serviços. E se os provedores oferecerem computação ou os compradores comprarem, sem saber, a computação de entidades sancionadas? Os usuários podem hesitar em usar plataformas descentralizadas sem controle e supervisão centralizados. Os protocolos tentam aliviar essas preocupações incorporando controles em suas plataformas ou adicionando filtros para acessar apenas provedores de computação conhecidos (ou seja, aqueles que forneceram informações do Know Your Customer (KYC), mas uma abordagem mais robusta é necessária para proteger a privacidade e, ao mesmo tempo, garantir a conformidade. No curto prazo, podemos ver o surgimento de KYC e plataformas de conformidade que restringem o acesso a seus protocolos para resolver essas questões. Além disso, as discussões em torno de um possível novo marco regulatório nos EUA (exemplificado pela emissão da Ordem Executiva sobre a Promoção do Desenvolvimento e Uso Seguros, Confiáveis e Confiáveis de Inteligência Artificial) destacam o potencial de ações regulatórias para restringir ainda mais o acesso à GPU.
  • Censura. A regulamentação é uma faca de dois gumes, e os produtos de computação descentralizada podem se beneficiar de ações que limitam o acesso à IA. Além das ordens executivas, o fundador da OpenAI, Sam Altman, testemunhou no Congresso que os reguladores deveriam emitir licenças para o desenvolvimento de IA. As discussões sobre a regulamentação da IA estão apenas começando, mas quaisquer tentativas de restringir o acesso ou censurar recursos de IA podem acelerar a adoção de plataformas descentralizadas que não enfrentem tais barreiras. As mudanças de liderança (ou a falta delas) na OpenAI em novembro indicam ainda que confiar o poder de decisão dos modelos de IA existentes mais poderosos a alguns é arriscado. Além disso, todos os modelos de IA refletem inevitavelmente os vieses de quem os cria, sejam eles intencionais ou não. Uma maneira de eliminar esses vieses é tornar os modelos o mais abertos possível para ajustes finos e treinamento, garantindo que qualquer pessoa, em qualquer lugar, possa acessar uma variedade de modelos com diferentes vieses.
  • Privacidade de Dados. A computação descentralizada pode ser mais atrativa do que as alternativas centralizadas quando integrada com soluções externas de dados e privacidade que oferecem aos usuários a soberania de dados. A Samsung tornou-se uma vítima quando percebeu que os engenheiros estavam usando o ChatGPT para o design de chips e vazando informações sensíveis para o ChatGPT. A Phala Network e a iExec afirmam fornecer aos usuários enclaves seguros SGX para proteger os dados do usuário, e pesquisas contínuas de criptografia totalmente homomórfica poderiam desbloquear ainda mais a computação descentralizada com privacidade garantida. À medida que a IA se integra cada vez mais em nossas vidas, os usuários valorizarão cada vez mais a capacidade de executar modelos em aplicativos com proteção de privacidade. Os usuários também precisam de suporte para serviços de composabilidade de dados, para que possam transferir dados de um modelo para outro de forma contínua.
  • Experiência do usuário (UX). A experiência do usuário continua a ser uma barreira significativa para uma adoção mais ampla de todos os tipos de aplicações e infraestruturas de cripto. Isso não é diferente para produtos de computação descentralizada e é exacerbado em alguns casos devido aos desenvolvedores precisarem entender tanto criptomoeda quanto IA. As melhorias precisam começar a partir do básico, como se juntar e extrair interações com o blockchain, para entregar a mesma saída de alta qualidade dos líderes de mercado atuais. Isso é evidente dada a dificuldade que muitos protocolos de computação descentralizada operáveis, oferecendo produtos mais baratos, têm em obter uso regular.

Contratos inteligentes e zkML

Os contratos inteligentes são a pedra angular de qualquer ecossistema blockchain. Eles executam automaticamente sob um conjunto de condições específicas, reduzindo ou eliminando a necessidade de terceiros confiáveis, permitindo assim a criação de aplicativos descentralizados complexos, como aqueles em DeFi. No entanto, a funcionalidade dos contratos inteligentes ainda é limitada porque eles operam com base em parâmetros predefinidos que devem ser atualizados.

Por exemplo, um contrato inteligente implantado para um protocolo de empréstimo / empréstimo, que contém especificações sobre quando as posições devem ser liquidadas com base em índices específicos de empréstimo-valor. Embora úteis em ambientes estáticos, esses contratos inteligentes precisam de atualizações constantes para se adaptar às mudanças na tolerância ao risco em situações dinâmicas, apresentando desafios para contratos não gerenciados por meio de processos centralizados. Por exemplo, DAOs que dependem de processos de governança descentralizada podem não reagir com rapidez suficiente aos riscos sistêmicos.

A integração de inteligência artificial (ou seja, modelos de aprendizado de máquina) em contratos inteligentes é uma maneira potencial de melhorar a funcionalidade, a segurança e a eficiência e, ao mesmo tempo, melhorar a experiência geral do usuário. No entanto, essas integrações também introduzem riscos adicionais, pois é impossível garantir que os modelos que sustentam esses contratos inteligentes não sejam explorados ou deixem de interpretar situações de cauda longa (dada a escassez de entradas de dados, situações de cauda longa são difíceis para os modelos treinarem).

Aprendizado de Máquina de Conhecimento Zero (zkML)

A aprendizagem de máquina requer uma computação significativa para executar modelos complexos, tornando impraticável a execução direta de modelos de IA em contratos inteligentes devido aos altos custos. Por exemplo, um protocolo DeFi que oferece modelos de otimização de rendimento teria dificuldade em executar esses modelos on-chain sem incorrer em taxas de gás proibitivas. Uma solução é aumentar as capacidades computacionais da blockchain subjacente. No entanto, isso também aumenta os requisitos para os validadores da cadeia, comprometendo potencialmente a descentralização. Em vez disso, alguns projetos estão explorando o uso de zkML para verificar os resultados de maneira trustless sem a necessidade de computação intensiva on-chain.

Um exemplo comum que ilustra a utilidade do zkML é quando os usuários precisam que outros executem dados através de modelos e verifiquem se seus correspondentes realmente executaram o modelo correto. Os desenvolvedores que usam provedores de computação descentralizada para treinar seus modelos podem se preocupar com esses provedores reduzindo custos ao usar modelos mais baratos que produzem saídas com diferenças quase imperceptíveis. O zkML permite que os provedores de computação executem dados através de seus modelos e gerem provas que podem ser verificadas on-chain, provando que as saídas do modelo para as entradas fornecidas estão corretas. Nesse cenário, o provedor do modelo obtém a vantagem adicional de poder oferecer seu modelo sem revelar os pesos subjacentes que produziram as saídas.

O oposto também é possível. Se os usuários desejam executar modelos em seus dados, mas não desejam dar acesso a projetos de modelo aos seus dados devido a preocupações com a privacidade (por exemplo, em verificações médicas ou informações comerciais proprietárias), eles podem executar o modelo em seus dados sem compartilhar os dados e, em seguida, verificar por meio de provas que executaram o modelo correto. Essas possibilidades ampliam enormemente o espaço de design para integrar funcionalidades de IA e contratos inteligentes, ao abordar restrições computacionais assustadoras.

Infraestrutura e ferramentas

Dado o estado inicial do campo zkML, o desenvolvimento está principalmente focado na construção da infraestrutura e das ferramentas de que as equipes precisam para converter seus modelos e saídas em provas verificáveis na cadeia. Esses produtos abstraem o aspecto de conhecimento zero o máximo possível.

EZKL e Giza são dois projetos que constroem tais ferramentas fornecendo provas verificáveis da execução do modelo de aprendizado de máquina. Ambos ajudam equipes a construir modelos de aprendizado de máquina para garantir que esses modelos possam ser executados de maneira que permita que os resultados sejam verificados on-chain de forma confiável. Ambos os projetos usam Open Neural Network Exchange (ONNX) para converter modelos de aprendizado de máquina escritos em linguagens comuns como TensorFlow e Pytorch em um formato padrão. Em seguida, eles produzem versões desses modelos que também geram provas zk durante a execução. EZKL é de código aberto, produzindo zk-SNARKs, enquanto Giza é de código fechado, produzindo zk-STARKs. Ambos os projetos atualmente são compatíveis apenas com EVM.

Nos últimos meses, EZKL fez progressos significativos na melhoria das soluções zkML, focando principalmente na redução de custos, melhoria da segurança e aceleração da geração de provas. Por exemplo, em novembro de 2023, EZKL integrou uma nova biblioteca de GPU de código aberto que reduziu o tempo de prova de agregação em 35%; em janeiro, EZKL lançou Lilith, uma solução de software para integrar clusters de computação de alto desempenho e orquestrar sistemas de trabalho concorrentes ao usar provas EZKL. A singularidade do Giza reside em fornecer ferramentas para criar modelos de aprendizado de máquina verificáveis e planejar a implementação de uma versão web3 do Hugging Face, abrindo um mercado de usuários para colaboração e compartilhamento de modelos zkML e eventualmente integrando produtos de computação descentralizada. Em janeiro, EZKL publicou uma avaliação de referência comparando o desempenho de EZKL, Giza e RiscZero (conforme descrito abaixo), mostrando tempos de prova mais rápidos e uso de memória.

A Modulus Labs está atualmente desenvolvendo uma nova tecnologia de prova de conhecimento zero (zk) especificamente adaptada para modelos de IA. A Modulus lançou um artigo intitulado 'Custo Inteligente', que implica que a execução de modelos de IA on-chain incorre em custos proibitivamente altos. Este artigo, publicado em janeiro de 2023, compara os sistemas de prova zk existentes para identificar melhorias na capacidade de prova zk e gargalos dentro dos modelos de IA. Ele revela que os produtos atuais são muito caros e ineficientes para aplicações de IA em larga escala. Expandindo a pesquisa inicial, a Modulus lançou o Remainder em novembro, um provador zk especializado com o objetivo de reduzir o custo e o tempo de prova para modelos de IA, tornando os projetos economicamente viáveis para integração em larga escala em contratos inteligentes. Seu trabalho é proprietário, tornando impossível a comparação com as soluções mencionadas, mas foi recentemente citado no post do blog de Vitalik sobre criptografia e inteligência artificial.

O desenvolvimento de ferramentas e infraestrutura é crucial para o crescimento futuro do espaço zkML, pois pode reduzir significativamente o atrito envolvido na implantação de cálculos off-chain verificáveis e na necessidade de equipes zk. A criação de interfaces seguras para praticantes de aprendizado de máquina não nativos de criptomoeda trazerem seus modelos on-chain permitirá que aplicativos experimentem casos de uso verdadeiramente inovadores. Além disso, essas ferramentas abordam uma grande barreira para a adoção mais ampla do zkML: a falta de desenvolvedores experientes interessados em trabalhar na interseção de conhecimento zero, aprendizado de máquina e criptografia.

Coprocessor

Outras soluções em desenvolvimento, referidas como “coprocessadores” (incluindo RiscZero, Axiom e Ritual), desempenham vários papéis, incluindo a verificação de cálculos off-chain on-chain. Assim como EZKL, Giza e Modulus, seu objetivo é abstrair completamente o processo de geração de provas zk, criando máquinas virtuais de conhecimento zero capazes de executar programas off-chain e gerar provas verificáveis on-chain. RiscZero e Axiom atendem a modelos de IA simples como coprocessadores mais gerais, enquanto Ritual é construído especificamente para uso com modelos de IA.

A primeira instância do Ritual, Infernet, inclui um Infernet SDK que permite aos desenvolvedores enviar solicitações de inferência para a rede e receber saídas e provas opcionais em troca. Os nós do Infernet processam esses cálculos fora da cadeia antes de retornar as saídas. Por exemplo, um DAO poderia estabelecer um processo garantindo que todas as novas propostas de governança atendam a certos requisitos antes da submissão. Cada vez que uma nova proposta é enviada, o contrato de governança aciona uma solicitação de inferência através do Infernet, invocando um modelo de IA treinado especificamente para a governança do DAO. Este modelo revisa a proposta para garantir que todos os padrões necessários sejam atendidos e retorna saídas e evidências para aprovar ou rejeitar a submissão da proposta.

No próximo ano, a equipe da Ritual planeja introduzir mais recursos, formando uma camada de infraestrutura conhecida como o superchain Ritual. Muitos dos projetos discutidos poderiam ser integrados como provedores de serviços no Ritual. A equipe do Ritual já se integrou ao EZKL para geração de prova e em breve pode adicionar recursos de outros provedores líderes. Os nós Infernet no Ritual também poderiam utilizar GPUs Akash ou io.net e consultar modelos treinados na sub-rede Bittensor. Seu objetivo final é se tornar o provedor preferido de infraestrutura de IA aberta, oferecendo serviços para aprendizado de máquina e outras tarefas relacionadas à IA para qualquer rede e qualquer carga de trabalho.

Aplicações

zkML está ajudando a reconciliar a dicotomia entre blockchain, que é inerentemente restrito em recursos, e inteligência artificial, que demanda recursos computacionais e de dados significativos. Como um dos fundadores da Giza coloca, "os casos de uso são incrivelmente ricos... É um pouco como perguntar quais eram os casos de uso para contratos inteligentes nos primeiros dias do Ethereum... O que estamos fazendo é simplesmente expandindo os casos de uso para contratos inteligentes." No entanto, como observado, o desenvolvimento atual está predominantemente ocorrendo no nível da ferramenta e infraestrutura. As aplicações ainda estão na fase exploratória, com equipes enfrentando o desafio de provar que o valor gerado pela implementação de modelos com zkML supera sua complexidade e custo.

Aplicações atuais incluem:

  • Finanças Descentralizadas (DeFi). O zkML aprimora os recursos dos contratos inteligentes, atualizando o espaço de design para DeFi. Os protocolos DeFi oferecem uma riqueza de dados verificáveis e imutáveis para modelos de aprendizado de máquina a serem utilizados na geração de rendimento ou estratégias de negociação, análise de risco, experiência do usuário, etc. Por exemplo, a Giza colaborou com a Yearn Finance para construir um mecanismo de avaliação automática de risco de prova de conceito para os novos cofres v3 da Yearn. A Modulus Labs está trabalhando com a Lyra Finance para integrar o aprendizado de máquina em seu AMM, com o Ion Protocol para implementar modelos para analisar os riscos dos validadores e ajudar a Upshot a validar suas informações de preços NFT suportadas por IA. Protocolos como NOYA (usando EZKL) e Mozaic fornecem acesso a modelos off-chain proprietários, permitindo que os usuários acessem a mineração de liquidez automatizada enquanto validam entradas e provas de dados on-chain. A Spectral Finance está desenvolvendo um mecanismo de pontuação de crédito on-chain para prever a probabilidade de os mutuários Compound ou Aave caírem em empréstimos. Devido ao zkML, esses chamados produtos "De-Ai-Fi" provavelmente se tornarão cada vez mais populares nos próximos anos.
  • Jogos. Os jogos têm sido considerados por muito tempo para interrupção e aprimoramento por meio de blockchains públicos. zkML permite jogos de inteligência artificial on-chain. A Modulus Labs realizou uma prova de conceito para jogos simples on-chain. "Leela vs the World" é um jogo de xadrez baseado em teoria dos jogos, no qual os usuários competem contra um modelo de xadrez de IA, com zkML verificando cada movimento que Leela faz com base no modelo em execução do jogo. Da mesma forma, equipes estão usando o framework EZKL para construir competições simples de canto e jogo da velha on-chain. A Cartridge está usando Giza para permitir que equipes implantem jogos totalmente on-chain, destacando recentemente um simples jogo de direção de IA no qual os usuários podem competir para criar modelos melhores para carros tentando evitar obstáculos. Embora simples, essas provas de conceito apontam para implementações futuras capazes de verificação mais complexa on-chain, como atores NPC complexos que podem interagir com economias in-game, como visto em "AI Arena", um jogo Super Smash Brothers no qual os jogadores podem treinar seus guerreiros e depois implantá-los como modelos de IA para lutar.
  • Identidade, Procedência e Privacidade. As criptomoedas têm sido usadas para verificar a autenticidade e combater a crescente questão de conteúdo gerado/manipulado por IA e deep fakes. zkML pode avançar esses esforços. WorldCoin é uma solução de verificação de identidade que requer que os usuários digitalizem suas íris para gerar um ID exclusivo. No futuro, as IDs biométricas poderão ser auto-hospedadas em dispositivos pessoais usando criptografia e verificadas usando modelos executados localmente. Os usuários poderiam então fornecer evidências biométricas sem revelar suas identidades, defendendo-se assim contra ataques Sybil enquanto garantia a privacidade. Isso também pode se aplicar a outras inferências exigidas pela privacidade, como o uso de modelos para analisar dados/imagens médicas para detecção de doenças, verificar personalidades e desenvolver algoritmos de correspondência em aplicativos de namoro ou instituições de seguros e empréstimos que precisam verificar informações financeiras.

Perspectiva

zkML permanece experimental, com a maioria dos projetos se concentrando na construção de primitivas de infraestrutura e provas de conceito. Os desafios atuais incluem custos computacionais, limitações de memória, complexidade do modelo, ferramentas e infraestrutura limitadas e talento do desenvolvedor. Em suma, há um trabalho considerável a ser feito antes que o zkML possa ser implementado na escala exigida pelos produtos de consumo.

No entanto, à medida que o campo amadurece e essas limitações são abordadas, o zkML se tornará um componente-chave da integração da inteligência artificial com a criptografia. Essencialmente, o zkML promete trazer qualquer escala de computação off-chain on-chain, mantendo as mesmas ou semelhantes garantias de segurança que a execução on-chain. No entanto, antes que essa visão seja concretizada, os primeiros a adotar a tecnologia continuarão a ter que equilibrar a privacidade e a segurança do zkML com a eficiência das alternativas.

Agentes de Inteligência Artificial

Agentes de Inteligência Artificial

Uma das integrações mais empolgantes de inteligência artificial e criptomoedas é o experimento em andamento com agentes de inteligência artificial. Os agentes são robôs autônomos capazes de receber, interpretar e executar tarefas usando modelos de IA. Isso pode variar desde ter um assistente pessoal disponível o tempo todo, ajustado às suas preferências, até contratar um agente financeiro para gerenciar e ajustar sua carteira de investimentos com base em suas preferências de risco.

Dado que a criptomoeda oferece uma infraestrutura de pagamento sem permissão e sem confiança, os agentes e a criptomoeda podem ser bem integrados. Uma vez treinados, os agentes terão uma carteira, permitindo-lhes conduzir transações por conta própria usando contratos inteligentes. Por exemplo, os agentes de hoje podem coletar informações na internet e depois negociar em mercados de previsão com base em modelos.

Agent Providers

Morpheus é um dos mais recentes projetos de agente de código aberto lançados em 2024 no Ethereum e Arbitrum. Seu white paper foi publicado anonimamente em setembro de 2023, fornecendo uma base para a formação e construção de comunidades, incluindo figuras proeminentes como Erik Vorhees. O white paper inclui um protocolo de agente inteligente para download, um LLM de código aberto que pode ser executado localmente, gerenciado pela carteira do usuário e interagir com contratos inteligentes. Ele usa classificações de contratos inteligentes para ajudar os agentes a determinar com quais contratos inteligentes podem ser interagidos com segurança com base em critérios como o número de transações processadas.

O white paper também fornece um quadro para a construção da rede Morpheus, incluindo as estruturas de incentivo e infraestrutura necessárias para executar o protocolo de agente inteligente. Isso inclui incentivos para os colaboradores construírem interfaces para interagir com os agentes, APIs para os desenvolvedores construírem agentes de plug-in para interação mútua e soluções de nuvem para que os usuários acessem a computação e armazenamento necessários para executar agentes em dispositivos de borda. O financiamento inicial do projeto foi lançado no início de fevereiro, com o lançamento completo do protocolo esperado para o segundo trimestre de 2024.

A Rede de Infraestrutura Autônoma Descentralizada (DAIN) é um novo protocolo de infraestrutura de agente que cria uma economia de agente para agente no Solana. O objetivo da DAIN é permitir que agentes de diferentes empresas interajam perfeitamente uns com os outros por meio de uma API comum, abrindo significativamente o espaço de design para agentes de IA, com foco em agentes que podem interagir com produtos web2 e web3. Em janeiro, a DAIN anunciou sua primeira parceria com a Asset Shield, permitindo que os usuários adicionem "agentes signatários" aos seus multisigs, capazes de interpretar transações e aprovar/rejeitar com base em regras definidas pelo usuário.

Fetch.AI é um dos protocolos de agentes de IA implantados mais cedo e desenvolveu um ecossistema para construir, implantar e usar agentes on-chain usando tokens FET e carteiras Fetch.AI. O protocolo oferece um conjunto abrangente de ferramentas e aplicativos para usar agentes, incluindo funções de carteira para interagir e solicitar agentes.

Autonolas, fundada por ex-membros da equipe da Fetch, é um mercado aberto para criar e usar agentes de IA descentralizados. Autonolas também fornece um conjunto de ferramentas para desenvolvedores construírem agentes de IA hospedados off-chain que podem se conectar a várias blockchains, incluindo Polygon, Ethereum, Gnosis Chain e Solana. Atualmente, eles possuem alguns produtos de conceito de prova de conceito de agentes ativos, incluindo para mercados preditivos e governança de DAO.

SingularityNet está construindo um mercado descentralizado para agentes de IA, onde agentes de IA especializados podem ser implantados, que podem ser contratados por outros agentes para realizar tarefas complexas. Outras empresas como AlteredStateMachine estão construindo integrações de agentes de IA com NFTs. Os usuários cunham NFTs com atributos aleatórios, que lhes conferem vantagens e desvantagens em diferentes tarefas. Esses agentes podem então ser treinados para aprimorar certos atributos para uso em jogos, DeFi ou como assistentes virtuais e negociados com outros usuários.

No geral, esses projetos vislumbram um futuro ecossistema de agentes capazes de trabalhar colaborativamente não apenas para realizar tarefas, mas também para ajudar a construir uma inteligência artificial geral. Agentes verdadeiramente complexos terão a capacidade de completar autonomamente qualquer tarefa do usuário. Por exemplo, agentes totalmente autônomos serão capazes de descobrir como contratar outro agente para integrar uma API e, em seguida, executar uma tarefa sem precisar garantir que o agente já tenha integrado APIs externas (como sites de reserva de viagens) antes de usar. Do ponto de vista do usuário, não há necessidade de verificar se um agente pode concluir uma tarefa, pois o agente pode determinar isso por si próprio.

Bitcoin e Agentes de IA

Em julho de 2023, a Lightning Labs lançou uma implementação de prova de conceito para utilizar agentes na Lightning Network, apelidada de Bitcoin suite pela LangChain. Este produto é particularmente intrigante porque visa enfrentar um problema que está se tornando cada vez mais grave no mundo Web 2—as chaves de API restritas e caras de aplicações web.

LangChain aborda esse problema fornecendo aos desenvolvedores um conjunto de ferramentas que permitem aos agentes comprar, vender e manter Bitcoin, bem como consultar chaves de API e enviar micropagamentos. Nas vias de pagamento tradicionais, os micropagamentos são proibitivamente caros devido às taxas, mas na Lightning Network, os agentes podem enviar um número ilimitado de micropagamentos diariamente a um custo mínimo. Quando usado em conjunto com o framework de API de medição de pagamento L402 da LangChain, as empresas podem ajustar os custos de acesso de suas APIs com base em aumentos e diminuições no uso, em vez de definir um padrão único e custoso.

No futuro, as atividades em cadeia serão predominantemente impulsionadas por interações entre agentes e agentes, necessitando de mecanismos para garantir que os agentes possam interagir entre si sem custos proibitivos. Esse exemplo inicial demonstra o potencial de usar agentes em trilhos de pagamento sem permissão e economicamente eficientes, abrindo possibilidades para novos mercados e interações econômicas.

Perspectiva

O campo dos agentes ainda está em seus estágios iniciais. Os projetos apenas começaram a lançar agentes funcionais capazes de lidar com tarefas simples — acesso normalmente limitado a desenvolvedores e usuários experientes. No entanto, ao longo do tempo, um dos impactos mais significativos dos agentes de inteligência artificial nas criptomoedas será a melhoria da experiência do usuário em todas as verticais. As transações começarão a migrar de cliques para texto, permitindo que os usuários interajam com agentes on-chain através de interfaces conversacionais. Equipes como a Dawn Wallet já lançaram carteiras com chatbots, permitindo que os usuários interajam on-chain.

Além disso, permanece incerto como os agentes vão operar na Web 2, já que os trilhos financeiros dependem de instituições bancárias regulamentadas que não podem operar 24/7 ou facilitar transações transfronteiriças perfeitas. Como destacou Lyn Alden, a falta de reembolsos e a capacidade de lidar com microtransações tornam os trilhos de criptomoeda particularmente atraentes em comparação com cartões de crédito. No entanto, se os agentes se tornarem um meio mais comum para transações, é provável que os provedores de pagamento e aplicativos existentes se adaptem rapidamente, implementando a infraestrutura necessária para operar nos trilhos financeiros existentes, diminuindo assim alguns benefícios de usar criptomoeda.

Atualmente, os agentes podem estar limitados a transações de criptomoeda determinísticas, onde uma entrada determinada garante uma saída determinada. Ambos os modelos destacaram a capacidade desses agentes de descobrir como realizar tarefas complexas, e as ferramentas estão expandindo o leque de tarefas que podem completar, ambas as quais exigem um desenvolvimento adicional. Para que os agentes de cripto se tornem úteis além de casos de uso de criptomoeda inovadores on-chain, é necessária uma integração e aceitação mais amplas da criptomoeda como forma de pagamento, juntamente com clareza regulatória. No entanto, à medida que esses componentes se desenvolvem, os agentes estão preparados para se tornar um dos maiores consumidores de computação descentralizada e soluções zkML, recebendo e resolvendo autonomamente qualquer tarefa de maneira não determinística.

Conclusão

A IA introduz as mesmas inovações na criptomoeda que vimos na web2, aprimorando tudo, desde o desenvolvimento de infraestrutura até a experiência do usuário e acessibilidade. No entanto, os projetos ainda estão em estágios iniciais de desenvolvimento, e a integração de criptomoeda e IA a curto prazo será principalmente impulsionada por integrações off-chain.

Produtos como Copilot estão definidos para “aumentar a eficiência do desenvolvedor em 10 vezes,” e aplicações Layer 1 e DeFi já lançaram plataformas de desenvolvimento assistidas por IA em colaboração com grandes empresas como Microsoft. Empresas como Cub3.ai e Test Machine estão desenvolvendo integrações de IA para auditoria de contratos inteligentes e monitoramento de ameaças em tempo real para aprimorar a segurança on-chain. Chatbots LLM estão sendo treinados com dados on-chain, documentação de protocolo e aplicações para fornecer aos usuários acessibilidade e experiência do usuário aprimoradas.

O desafio para integrações mais avançadas que realmente aproveitam a tecnologia subjacente das criptomoedas continua sendo provar que a implementação de soluções de IA on-chain é tecnicamente e economicamente viável. O desenvolvimento de computação descentralizada, zkML e agentes de IA aponta para verticais promissoras que lançam as bases para um futuro profundamente interconectado de criptomoedas e IA.

Aviso Legal:

  1. Este artigo é reproduzido detechflow, Todos os direitos autorais pertencem ao autor original [Lucas Tcheyan]. Se houver objeções a esta reimpressão, entre em contato com o Gate Aprenderequipe e eles vão lidar com isso prontamente.
  2. Aviso de responsabilidade: As opiniões expressas neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipe Gate Learn. A menos que mencionado, copiar, distribuir ou plagiar os artigos traduzidos é proibido.

Galaxy Digital: Explorando a Interseção da Criptomoeda e da IA

intermediário2/28/2024, 4:55:32 AM
Este artigo explora a interseção da criptomoeda e inteligência artificial, destacando o surgimento de blockchains públicos como um dos avanços mais profundos na história da ciência da computação. Ele discute como o desenvolvimento da IA já está tendo um impacto significativo em nosso mundo.

Introdução

O surgimento de blockchains públicos marca um avanço profundo na história da ciência da computação, enquanto o desenvolvimento de inteligência artificial está tendo um impacto significativo em nosso mundo. A tecnologia blockchain oferece novos modelos para liquidação de transações, armazenamento de dados e design de sistemas, enquanto a inteligência artificial representa uma revolução em computação, análise e entrega de conteúdo. Inovações nessas indústrias estão desencadeando novos casos de uso que poderiam acelerar a adoção de ambos os setores nos próximos anos. Este relatório examina a integração contínua de criptomoedas e inteligência artificial, focando em casos de uso inovadores que visam preencher a lacuna entre os dois e alavancar suas forças. Ele especificamente analisa projetos que desenvolvem protocolos de computação descentralizada, infraestrutura de aprendizado de máquina de conhecimento zero (zkML) e agentes de IA.

A criptomoeda oferece uma camada de liquidação permissiva, sem confiança e componível para a IA, desbloqueando casos de uso como acesso mais fácil ao hardware por meio de sistemas de computação descentralizados, construindo agentes de IA capazes de executar tarefas complexas que exigem troca de valor e desenvolvendo soluções de identidade e procedência para combater ataques de Sybil e deepfakes. A IA traz para a criptomoeda muitos dos mesmos benefícios vistos na Web 2.0, incluindo experiências aprimoradas do usuário e do desenvolvedor por meio de grandes modelos de linguagem como ChatGPT e Copilot, e potencial significativamente melhorado de funcionalidade e automação para contratos inteligentes. A blockchain fornece o ambiente transparente e rico em dados necessário para a IA, embora o poder de computação limitado da blockchain seja uma grande barreira para a integração direta de modelos de IA.

As experiências e a eventual adoção na interseção da criptomoeda e da IA são impulsionadas pelas mesmas forças que impulsionam os casos de uso mais promissores para a criptomoeda: acesso a uma camada de coordenação sem permissão e sem confiança, facilitando uma melhor transferência de valor. Dado o vasto potencial, os intervenientes neste campo precisam de compreender as formas fundamentais como essas tecnologias se intersectam.

Principais pontos:

    • Em um futuro próximo (de 6 meses a 1 ano), a integração de criptomoeda e IA será dominada por aplicações de IA que melhoram a eficiência dos desenvolvedores, a auditabilidade e segurança de contratos inteligentes e a acessibilidade do usuário. Essas integrações não são específicas para criptomoedas, mas aprimoram a experiência para os desenvolvedores e usuários on-chain.
    • À medida que as GPUs de alto desempenho continuam em falta, os produtos de computação descentralizada estão implementando produtos GPU personalizados para IA para impulsionar a adoção.
    • A experiência do usuário e obstáculos regulatórios continuam sendo obstáculos para atrair clientes de computação descentralizada. No entanto, os desenvolvimentos recentes da OpenAI e as revisões regulatórias em andamento nos EUA destacam a proposição de valor de redes de IA descentralizadas, sem permissão, à prova de censura e descentralizadas.
    • A integração de IA on-chain, especialmente contratos inteligentes capazes de utilizar modelos de IA, requer melhorias na tecnologia zkML e outros métodos para verificar cálculos off-chain. A falta de ferramentas abrangentes, talento de desenvolvedor e altos custos são barreiras para a adoção.
    • Agentes de IA são bem adequados para criptomoedas, onde os usuários (ou os próprios agentes) podem criar carteiras para transacionar com outros serviços, agentes ou indivíduos - uma capacidade não possível com os sistemas financeiros tradicionais. Uma integração adicional com produtos não cripto é necessária para uma adoção mais ampla.

Termos

A inteligência artificial é o uso de computação e máquinas para imitar as capacidades de raciocínio e resolução de problemas dos humanos.

As Redes Neurais são um método de treinar modelos de inteligência artificial. Elas processam entradas através de camadas algorítmicas discretas, refinando-as até que a saída desejada seja produzida. Redes neurais consistem em equações com pesos que podem ser ajustados para alterar a saída. Elas podem exigir dados extensos e computação para treinamento a fim de garantir saídas precisas. Este é um dos modos mais comuns de desenvolver modelos de IA (por exemplo, o ChatGPT depende de um processo de rede neural baseado em Transformadores).

O treinamento é o processo de desenvolvimento de redes neurais e outros modelos de IA. Requer uma quantidade significativa de dados para treinar modelos a interpretar corretamente as entradas e produzir saídas precisas. Durante o treinamento, os pesos da equação do modelo são continuamente modificados até que uma saída satisfatória seja produzida. O treinamento pode ser muito custoso. Por exemplo, o ChatGPT usa dezenas de milhares de suas próprias GPUs para processar dados. Equipes com menos recursos frequentemente contam com provedores de computação especializados, como Amazon Web Services, Azure e Google Cloud providers.

A inferência é o uso real dos modelos de IA para obter saídas ou resultados (por exemplo, usando o ChatGPT para criar um esboço para um artigo sobre a interseção de criptomoedas e IA). A inferência é usada ao longo do processo de treinamento e no produto final. Devido aos custos computacionais, mesmo após o treinamento estar completo, seus custos operacionais podem ser altos, embora sua intensidade computacional seja menor do que a do treinamento.

Provas de Conhecimento Zero (ZKP) permitem a verificação de declarações sem revelar informações subjacentes. Isso é útil em criptomoeda por duas razões principais: 1) Privacidade e 2) Dimensionamento. Para privacidade, permite que os usuários realizem transações sem revelar informações sensíveis (por exemplo, quanto ETH está em uma carteira). Para dimensionamento, permite que computações off-chain sejam comprovadas on-chain mais rapidamente do que reexecutar as computações. Isso permite que blockchains e aplicativos executem computações de forma barata off-chain e, em seguida, as verifiquem on-chain. Para obter mais informações sobre conhecimento zero e seu papel nas Máquinas Virtuais Ethereum, consulte o relatório de Christine Kim sobre zkEVMs: O Futuro da Escalabilidade do Ethereum.

Mapa de Mercado de IA/Criptomoeda

Projetos que integram inteligência artificial e criptomoeda ainda estão construindo a infraestrutura subjacente necessária para suportar interações de IA em grande escala na cadeia.

Mercados de computação descentralizada estão surgindo para fornecer o vasto hardware físico necessário para treinar e inferir modelos de IA, principalmente na forma de Unidades de Processamento Gráfico (GPUs). Esses mercados de dois lados conectam aqueles que alugam e buscam alugar computação, facilitando a transferência de valor e verificação de cálculos. Dentro da computação descentralizada, várias subcategorias que oferecem funcionalidades adicionais estão surgindo. Além de mercados bilaterais, este relatório também analisa provedores de treinamento de aprendizado de máquina que oferecem treinamento verificável e ajuste fino de saídas, bem como projetos dedicados a vincular computação e geração de modelos para permitir IA, frequentemente referidos como redes de incentivo inteligentes.

zkML é uma área de foco emergente para projetos que visam fornecer saídas de modelo verificáveis on-chain de maneira economicamente viável e oportuna. Esses projetos principalmente permitem que aplicativos lidem com solicitações computacionais pesadas off-chain e, em seguida, postem saídas verificáveis on-chain, provando que a carga de trabalho off-chain foi concluída e precisa. zkML é atualmente tanto caro quanto demorado, mas está sendo cada vez mais usado como solução. Isso é evidente no crescente número de integrações entre os provedores zkML e aplicativos DeFi/jogos que desejam alavancar modelos de IA.

O amplo fornecimento de computação e a capacidade de verificar a computação on-chain abrem as portas para agentes de IA on-chain. Os agentes são modelos treinados capazes de executar solicitações em nome dos usuários. Os agentes oferecem a oportunidade de aprimorar significativamente a experiência on-chain, permitindo que os usuários executem transações complexas simplesmente conversando com um chatbot. No entanto, até o momento, os projetos de agentes ainda estão focados no desenvolvimento da infraestrutura e ferramentas para implantação fácil e rápida.

Computação Descentralizada

Visão geral

A Inteligência Artificial requer uma extensa computação para treinar modelos e executar inferências. Ao longo da última década, à medida que os modelos se tornaram cada vez mais complexos, a demanda por computação cresceu exponencialmente. Por exemplo, a OpenAI observou que de 2012 a 2018, a demanda computacional de seus modelos dobrava a cada dois anos, passando a dobrar a cada três meses e meio. Isso levou a um aumento na demanda por GPUs, com alguns mineradores de criptomoedas até mesmo redirecionando suas GPUs para fornecer serviços de computação em nuvem. À medida que a competição pelo acesso computacional se intensifica e os custos aumentam, alguns projetos estão aproveitando a tecnologia criptográfica para oferecer soluções de computação descentralizadas. Eles fornecem computação sob demanda a preços competitivos, permitindo que equipes treinem e executem modelos de forma acessível. Em alguns casos, os compromissos podem envolver desempenho e segurança.

A demanda por GPUs de última geração (por exemplo, aquelas produzidas pela Nvidia) é significativa. Em setembro, a Tether adquiriu uma participação na mineradora de bitcoin alemã Northern Data, gastando, segundo relatos, US$ 420 milhões para comprar 10.000 GPUs H100 (uma das GPUs mais avançadas para treinamento de IA). O tempo de espera para adquirir hardware de primeira linha pode ser de pelo menos seis meses, se não mais em muitos casos. Além disso, as empresas muitas vezes são obrigadas a assinar contratos de longo prazo para garantir volumes computacionais que talvez nem usem. Isso pode levar a situações em que os recursos computacionais estão disponíveis, mas não acessíveis no mercado. Os sistemas de computação descentralizada ajudam a resolver essas ineficiências de mercado, criando um mercado secundário onde os proprietários de computação podem imediatamente sublocar sua capacidade excedente mediante notificação, liberando assim novo suprimento.

Além do preço competitivo e da acessibilidade, uma proposta de valor chave da computação descentralizada é a resistência à censura. O desenvolvimento de IA de ponta está cada vez mais dominado por grandes empresas de tecnologia com capacidades inigualáveis de acesso computacional e de dados. O primeiro tema chave destacado no Relatório Anual de 2023 do Índice de IA foi a crescente superação da academia pela indústria no desenvolvimento de modelos de IA, concentrando o controle nas mãos de alguns líderes de tecnologia. Isso levanta preocupações sobre seu potencial de exercer influência significativa na definição das normas e valores que sustentam os modelos de IA, especialmente depois que essas empresas de tecnologia pressionam por regulamentações para limitar o desenvolvimento de IA incontrolável.

Verticais em Computação Descentralizada

Vários modelos de computação descentralizada surgiram nos últimos anos, cada um com seu próprio foco e compensações.

Computação generalizada

De uma forma geral, projetos como Akash, io.net, iExec e Cudos são aplicações de computação descentralizada, oferecendo além de dados e soluções computacionais gerais, acesso a computação especializada para treinamento e inferência de IA. Akash se destaca como a única plataforma de "super nuvem" totalmente de código aberto, utilizando o Cosmos SDK para sua rede de prova de participação. AKT, o token nativo da Akash, serve como método de pagamento para garantir a rede e incentivar a participação. Lançada em 2020, a mainnet da Akash inicialmente focou em um mercado de computação em nuvem sem permissão, apresentando serviços de locação de armazenamento e CPU. Em junho de 2023, a Akash introduziu um testnet centrado em GPU, seguido pelo lançamento de um mainnet com GPU em setembro, permitindo aluguéis de GPU para treinamento e inferência de IA.

O ecossistema Akash é composto por dois participantes principais: os locatários, que buscam recursos de computação, e os provedores, os fornecedores de computação. Um processo de leilão reverso facilita a correspondência de locatários e provedores, onde os locatários lançam seus requisitos de computação, incluindo locais de servidor ou tipos de hardware preferenciais e seu orçamento. Os fornecedores então licitam, com o menor lance adjudicando a tarefa. Os validadores mantêm a integridade da rede, com um limite atual de 100 validadores, planejado para aumentar ao longo do tempo. A participação como validador está aberta àqueles que apostam mais AKT do que o validador atual menos apostado. Os detentores de AKT podem delegar seus tokens a validadores, com taxas de transação e recompensas de bloco distribuídas no AKT. Além disso, para cada locação, a rede Akash ganha uma "take rate", decidida pela comunidade, distribuída aos detentores da AKT.

Mercado secundário

O mercado secundário de computação descentralizada visa resolver as ineficiências no mercado computacional existente, onde as restrições de oferta levam as empresas a acumular recursos além de suas necessidades e contratos de longo prazo com provedores de nuvem limitam ainda mais a oferta. As plataformas de computação descentralizada desbloqueiam nova oferta, permitindo que qualquer pessoa com necessidades computacionais se torne um provedor.

Se a explosão na demanda por GPUs para treinamento de IA se traduz em uso de rede sustentado na Akash, ainda está por ver. Historicamente, a Akash tem oferecido serviços de mercado baseados em CPU com um desconto de 70-80% em comparação com alternativas centralizadas, mas esta estratégia de preços não impulsionou significativamente a adoção. A atividade da rede, medida pelos contratos ativos, estagnou, com uma média de utilização de 33% de computação, 16% de memória e 13% de armazenamento até o segundo trimestre de 2023, impressionante para a adoção on-chain, mas indicativo de que a oferta ainda supera a demanda. Meio ano desde o lançamento da rede GPU, é cedo demais para uma avaliação definitiva da adoção a longo prazo, embora os primeiros sinais mostrem uma utilização média de 44% de GPUs, impulsionada principalmente pela demanda por GPUs de alta qualidade como a A100, mais de 90% das quais foram alugadas.

As despesas diárias de Akash quase dobraram desde a introdução das GPUs, atribuídas em parte ao aumento do uso de outros serviços, especialmente CPUs, mas principalmente devido ao novo uso de GPUs.

Os preços são competitivos com, ou em alguns casos mais caros do que, concorrentes centralizados como Lambda Cloud e Vast.ai. A alta demanda por GPUs de ponta, como o H100 e A100, significa que a maioria dos proprietários desse tipo de equipamento não está interessada em listá-los em um mercado com preços competitivos.

Apesar dos lucros iniciais, as barreiras de adoção permanecem. As redes de computação descentralizadas devem dar mais passos para gerar demanda e oferta, com equipes explorando a melhor forma de atrair novos usuários. Por exemplo, no início de 2024, a Akash aprovou a Proposta 240, aumentando a emissão de AKT para os fornecedores de GPU para incentivar mais oferta, especialmente para GPUs de alta qualidade. As equipes também estão trabalhando em modelos de prova de conceito para demonstrar as capacidades ao vivo de suas redes para usuários em potencial. A Akash está treinando seus modelos fundamentais e lançou produtos de geração de chatbot e imagem que utilizam GPUs da Akash. Da mesma forma, a io.net desenvolveu um modelo de difusão estável e está lançando novas funcionalidades de rede para melhorar a performance e a escala da rede.

Treinamento descentralizado de aprendizado de máquina

Além das plataformas de computação gerais que podem atender às demandas de inteligência artificial, também está surgindo um grupo de fornecedores profissionais de GPU de IA focados no treinamento de modelos de aprendizado de máquina. Por exemplo, a Gensyn está “coordenando energia e hardware para construir inteligência coletiva”, com a filosofia de que “se alguém quer treinar algo e alguém está disposto a treiná-lo, então este treinamento deve ser permitido acontecer”.

Este protocolo envolve quatro participantes principais: submetedores, solucionadores, validadores e delatores. Os submetedores enviam tarefas com solicitações de treinamento para a rede. Essas tarefas incluem os objetivos de treinamento, os modelos a serem treinados e os dados de treinamento. Como parte do processo de submissão, os submetedores precisam pagar antecipadamente o custo computacional estimado exigido pelos solucionadores.

Após a submissão, as tarefas são atribuídas aos solucionadores que realmente realizam o treinamento do modelo. Em seguida, os solucionadores enviam as tarefas concluídas para os validadores, que são responsáveis por verificar o treinamento para garantir que tenha sido concluído corretamente. Os delatores têm a tarefa de garantir que os validadores ajam honestamente. Para motivar os delatores a participar da rede, a Gensyn planeja oferecer regularmente evidências deliberadamente incorretas, recompensando os delatores que as detectarem.

Além de fornecer computação para cargas de trabalho relacionadas à IA, uma proposição de valor-chave da Gensyn é seu sistema de verificação, que ainda está em desenvolvimento. A verificação é necessária para garantir que a computação externa pelos provedores de GPU seja executada corretamente (ou seja, garantindo que os modelos dos usuários sejam treinados da maneira que desejam). A Gensyn aborda esse problema com uma abordagem única, utilizando métodos de verificação inovadores chamados 'provas de aprendizado probabilísticas, protocolos precisos baseados em gráficos e jogos de incentivo no estilo Truebit.' Este é um modelo de resolução otimista que permite que validadores confirmem que os solucionadores executaram o modelo corretamente sem precisar rerodar completamente o modelo, um processo que é caro e ineficiente.

Além do seu inovador método de verificação, a Gensyn também afirma ser econômica em comparação com as alternativas centralizadas e concorrentes de criptomoedas - oferecendo preços de treinamento de ML até 80% mais baratos que a AWS, enquanto supera projetos similares como o Truebit em testes.

Se esses resultados iniciais podem ser replicados em grande escala em redes descentralizadas ainda está para ser visto. Gensyn espera utilizar a capacidade computacional excedente de provedores como pequenos centros de dados, usuários varejistas e eventualmente pequenos dispositivos móveis como smartphones. No entanto, como a própria equipe da Gensyn admite, confiar em provedores de computação heterogêneos introduz alguns novos desafios.

Para provedores centralizados como Google Cloud e Coreweave, os custos de computação são caros, mas a comunicação entre cálculos (largura de banda e latência) é barata. Esses sistemas são projetados para facilitar a comunicação entre hardware o mais rápido possível. O Gensyn interrompe essa estrutura reduzindo os custos de computação ao permitir que qualquer pessoa no mundo ofereça GPUs, mas ao mesmo tempo aumenta os custos de comunicação, já que a rede agora deve coordenar trabalhos de computação em hardware heterogêneo distante. O Gensyn ainda não foi lançado, mas representa uma prova de conceito que pode ser alcançada ao construir um protocolo de treinamento de aprendizado de máquina descentralizado.

Inteligência Geral Descentralizada

Plataformas de computação descentralizada também oferecem a possibilidade de projetar métodos para a criação de inteligência artificial. Bittensor é um protocolo de computação descentralizada construído em Substrate, tentando responder à pergunta: “Como transformamos a inteligência artificial em um método colaborativo?” Bittensor tem como objetivo alcançar a descentralização e a mercantilização da geração de IA. Lançado em 2021, espera utilizar o poder de modelos colaborativos de aprendizado de máquina para iterar continuamente e produzir uma IA melhor.

Bittensor se inspira no Bitcoin, com sua moeda nativa, TAO, tendo um limite de oferta de 21 milhões e um ciclo de redução pela metade a cada quatro anos (a primeira redução pela metade está programada para 2025). Ao contrário da utilização de Prova de Trabalho para gerar números aleatórios corretos e ganhar recompensas de bloco, o Bittensor depende de "Prova de Inteligência", exigindo que os mineradores executem modelos para gerar saídas em resposta a solicitações de inferência.

Incentivizando Inteligência

Inicialmente, o Bittensor dependia de um modelo Mixture of Experts (MoE) para gerar saídas. Quando uma solicitação de inferência é enviada, o modelo MoE não depende de um modelo generalizado, mas encaminha a solicitação para o modelo mais preciso para o tipo de entrada fornecida. Imagine construir uma casa, onde você contrata vários especialistas para diferentes aspectos do processo de construção (por exemplo, arquitetos, engenheiros, pintores, trabalhadores da construção civil, etc.). O MoE aplica isso a modelos de aprendizado de máquina, tentando aproveitar as saídas de diferentes modelos com base na entrada. Como explicado pelo fundador do Bittensor, Ala Shaabana, isso é como “falar com uma sala cheia de pessoas inteligentes para obter a melhor resposta, em vez de falar com uma pessoa”. Devido aos desafios em garantir o roteamento correto, a sincronização de mensagens para o modelo correto e os incentivos, esse método foi arquivado até um desenvolvimento posterior do projeto.

Na rede Bittensor, existem dois participantes principais: validadores e mineradores. Os validadores enviam pedidos de inferência aos mineradores, revisam suas saídas e os classificam com base na qualidade de suas respostas. Para garantir que suas classificações sejam confiáveis, os validadores recebem uma pontuação de “vtrust” com base na consistência de suas classificações com outros validadores. Quanto maior a pontuação de vtrust de um validador, mais emissões de TAO eles recebem. Isso é para incentivar os validadores a alcançar um consenso sobre as classificações do modelo ao longo do tempo, pois quanto mais validadores concordam com as classificações, maior será a pontuação individual de vtrust deles.

Mineiros, também conhecidos como servidores, são participantes da rede que executam os modelos reais de aprendizado de máquina. Eles competem para fornecer as saídas mais precisas para as consultas dos validadores, e quanto mais precisas forem as saídas, mais emissões de TAO eles ganham. Os mineiros são livres para gerar essas saídas como desejarem. Por exemplo, no futuro, é inteiramente possível que os mineiros do Bittensor tenham modelos previamente treinados no Gensyn e os usem para ganhar emissões de TAO.

Hoje, a maioria das interações ocorre diretamente entre validadores e mineradores. Os validadores enviam inputs para os mineradores e solicitam outputs (ou seja, treinamento de modelo). Uma vez que os validadores consultam os mineradores na rede e recebem suas respostas, eles classificam os mineradores e enviam suas classificações para a rede.

A interação entre validadores (dependendo de PoS) e mineradores (dependendo do Modelo de Prova, uma forma de PoW) é conhecida como consenso Yuma. O objetivo é incentivar os mineradores a produzir as melhores saídas para ganhar emissões de TAO e incentivar os validadores a classificar com precisão as saídas dos mineradores, ganhando pontuações de vtrust mais altas e aumentando suas recompensas de TAO, formando assim um mecanismo de consenso para a rede.

Sub-redes e Aplicações

As interações no Bittensor envolvem principalmente validadores enviando solicitações para os mineradores e avaliando suas saídas. No entanto, à medida que a qualidade dos mineradores contribuintes melhora e a inteligência geral da rede cresce, o Bittensor está criando uma camada de aplicação em cima de sua pilha existente para que os desenvolvedores possam construir aplicativos que consultem a rede Bittensor.

Em outubro de 2023, o Bittensor introduziu sub-redes através da atualização Revolution, dando um passo significativo para alcançar esse objetivo. As sub-redes são redes separadas no Bittensor que incentivam comportamentos específicos. A Revolution abriu a rede para qualquer pessoa interessada em criar sub-redes. Em poucos meses após o seu lançamento, mais de 32 sub-redes foram lançadas, incluindo sub-redes para prompts de texto, scraping de dados, geração de imagens e armazenamento. À medida que as sub-redes amadurecem e se tornam prontas para o produto, os criadores de sub-redes também criarão integrações de aplicativos, permitindo que equipes construam aplicativos que consultem sub-redes específicas. Alguns aplicativos, como chatbots, geradores de imagens, bots de resposta do Twitter e mercados de previsão, já existem, mas não há incentivos formais além do financiamento da Fundação Bittensor para validadores aceitarem e encaminharem essas consultas.

Para uma explicação mais clara, abaixo está um exemplo de como o Bittensor pode funcionar uma vez que as aplicações estejam integradas na rede.

Subredes ganham TAO com base no desempenho avaliado pela rede raiz. A rede raiz, situada acima de todas as subredes, atua essencialmente como uma subrede especial e é gerenciada pelos 64 maiores validadores de subredes por participação. Os validadores da rede raiz classificam as subredes com base em seu desempenho e alocam periodicamente emissões de TAO para as subredes. Dessa forma, as subredes individuais atuam como mineradores para a rede raiz.

Visão da Bittensor

O Bittensor ainda está passando por dores de crescimento à medida que expande a funcionalidade do protocolo para incentivar a geração de inteligência em vários sub-redes. Os mineradores estão constantemente elaborando novas maneiras de atacar a rede em busca de mais recompensas TAO, como alterando ligeiramente a saída de inferências altamente classificadas executadas por seus modelos e, em seguida, enviando várias variantes. Propostas de governança que afetam toda a rede só podem ser enviadas e implementadas pelo Triunvirato, composto inteiramente por partes interessadas da Fundação Opentensor (notavelmente, as propostas requerem aprovação do Senado do Bittensor, composto por validadores do Bittensor, antes da implementação). A tokenômica do projeto está sendo modificada para melhorar os incentivos para o uso trans-sub-rede de TAO. O projeto também rapidamente ganhou notoriedade por sua abordagem única, com o CEO de um dos sites de IA mais populares, HuggingFace, afirmando que o Bittensor deveria adicionar seus recursos ao site.

Em um artigo recente intitulado “Paradigma Bittensor” publicado pelos desenvolvedores principais, a equipe delineou a visão do Bittensor de eventualmente se tornar “agnóstico em relação ao que é medido”. Teoricamente, isso poderia permitir que o Bittensor desenvolvesse sub-redes que incentivam qualquer tipo de comportamento suportado pelo TAO. Ainda existem consideráveis limitações práticas – principalmente, provar que essas redes podem escalar para lidar com uma gama tão diversa de processos e que os incentivos potenciais impulsionam o progresso além dos produtos centralizados.

Construindo uma Pilha de Computação Descentralizada para Modelos de Inteligência Artificial

A seção acima fornece uma visão abrangente de vários tipos de protocolos de computação descentralizada de inteligência artificial (IA) atualmente em desenvolvimento. Em suas fases iniciais de desenvolvimento e adoção, eles lançam as bases para um ecossistema que poderia eventualmente facilitar a criação de “blocos de construção de IA”, semelhante ao conceito de “money Legos” em DeFi. A composabilidade das blockchains sem permissão permite a possibilidade de que cada protocolo seja construído sobre outro, criando um ecossistema de IA descentralizado mais abrangente.
Por exemplo, é assim que Akash, Gensyn e Bittensor podem interagir para responder a pedidos de inferência.

É crucial entender que este é apenas um exemplo do que poderia acontecer no futuro, não uma representação do ecossistema atual, parcerias existentes ou resultados potenciais. As limitações de interoperabilidade e outras considerações descritas abaixo restringem significativamente as possibilidades de integração hoje. Além disso, a fragmentação da liquidez e a necessidade de usar vários tokens poderiam prejudicar a experiência do usuário, um ponto observado pelos fundadores da Akash e Bittensor.

Outros Produtos Descentralizados

Além da computação, vários outros serviços de infraestrutura descentralizada foram introduzidos para apoiar o ecossistema emergente de IA dentro do espaço de criptomoeda. Listar todos eles está além do escopo deste relatório, mas alguns exemplos interessantes e ilustrativos incluem:

  • Ocean: Um mercado de dados descentralizado onde os usuários podem criar NFTs de dados representando seus dados e comprar usando tokens de dados. Os usuários podem monetizar seus dados e ter maior soberania sobre eles, ao mesmo tempo em que fornecem às equipes de IA acesso aos dados necessários para desenvolver e treinar modelos.
  • Grass: Um mercado descentralizado de largura de banda onde os usuários podem vender seu excesso de largura de banda para empresas de IA, que a utilizam para coletar dados da internet. Construído na rede Wynd, isso permite que os indivíduos monetizem sua largura de banda e oferece aos compradores de largura de banda uma perspectiva mais diversificada do que os usuários individuais veem online (já que o acesso à internet individual é frequentemente personalizado com base em seu endereço IP).
  • HiveMapper: Constrói um produto de mapa descentralizado incorporando informações coletadas de motoristas diários. HiveMapper depende da IA para interpretar imagens coletadas das câmeras de painel dos usuários e recompensa os usuários com tokens por ajudar a ajustar os modelos de IA através do Feedback de Aprendizagem Humana Reforçada (RHLF).

Em geral, esses exemplos apontam para as oportunidades quase ilimitadas de explorar modelos de mercado descentralizados que suportam modelos de IA ou a infraestrutura periférica necessária para desenvolvê-los. Atualmente, a maioria desses projetos está na fase de prova de conceito e requer mais pesquisas e desenvolvimento para provar que podem operar na escala necessária para fornecer serviços de IA abrangentes.

Perspectiva

Produtos de computação descentralizada ainda estão em estágios iniciais de desenvolvimento. Eles acabaram de começar a lançar capacidades de computação de ponta, capazes de treinar os modelos de inteligência artificial mais poderosos em produção. Para obter uma participação de mercado significativa, eles precisam demonstrar vantagens reais sobre alternativas centralizadas. Gatilhos potenciais para uma adoção mais ampla incluem:

  • Fornecimento/Demanda de GPU. A escassez de GPUs combinada com demandas de computação em rápido crescimento está levando a uma corrida armamentista de GPU. Devido às limitações de GPU, a OpenAI, às vezes, restringiu o acesso à sua plataforma. Plataformas como Akash e Gensyn podem oferecer alternativas competitivas em custos para equipes que requerem computação de alto desempenho. Os próximos 6-12 meses apresentam uma oportunidade particularmente única para os provedores de computação descentralizada atrair novos usuários que são obrigados a considerar produtos descentralizados devido à falta de acesso ao mercado mais amplo. Além disso, com o desempenho cada vez mais melhorado de modelos de código aberto como o LLaMA2 da Meta, os usuários não enfrentam mais as mesmas barreiras ao implantar modelos eficazes ajustados, tornando os recursos de computação o principal gargalo. No entanto, a mera existência de plataformas não garante um fornecimento de computação suficiente e demanda do consumidor correspondente. A aquisição de GPUs de alta qualidade continua sendo um desafio, e o custo nem sempre é o principal motivador da demanda. Essas plataformas enfrentarão desafios ao demonstrar os benefícios reais do uso de opções de computação descentralizada (seja devido a custo, resistência à censura, tempo de atividade e resiliência, ou acessibilidade) para acumular usuários fiéis. Eles devem agir rapidamente, pois os investimentos e construções de infraestrutura de GPU estão avançando a um ritmo surpreendente.
  • Regulamento. A regulamentação continua sendo uma barreira para o movimento de computação descentralizada. A curto prazo, a falta de regulamentação clara significa que tanto os prestadores como os utilizadores enfrentam riscos potenciais na utilização destes serviços. E se os provedores oferecerem computação ou os compradores comprarem, sem saber, a computação de entidades sancionadas? Os usuários podem hesitar em usar plataformas descentralizadas sem controle e supervisão centralizados. Os protocolos tentam aliviar essas preocupações incorporando controles em suas plataformas ou adicionando filtros para acessar apenas provedores de computação conhecidos (ou seja, aqueles que forneceram informações do Know Your Customer (KYC), mas uma abordagem mais robusta é necessária para proteger a privacidade e, ao mesmo tempo, garantir a conformidade. No curto prazo, podemos ver o surgimento de KYC e plataformas de conformidade que restringem o acesso a seus protocolos para resolver essas questões. Além disso, as discussões em torno de um possível novo marco regulatório nos EUA (exemplificado pela emissão da Ordem Executiva sobre a Promoção do Desenvolvimento e Uso Seguros, Confiáveis e Confiáveis de Inteligência Artificial) destacam o potencial de ações regulatórias para restringir ainda mais o acesso à GPU.
  • Censura. A regulamentação é uma faca de dois gumes, e os produtos de computação descentralizada podem se beneficiar de ações que limitam o acesso à IA. Além das ordens executivas, o fundador da OpenAI, Sam Altman, testemunhou no Congresso que os reguladores deveriam emitir licenças para o desenvolvimento de IA. As discussões sobre a regulamentação da IA estão apenas começando, mas quaisquer tentativas de restringir o acesso ou censurar recursos de IA podem acelerar a adoção de plataformas descentralizadas que não enfrentem tais barreiras. As mudanças de liderança (ou a falta delas) na OpenAI em novembro indicam ainda que confiar o poder de decisão dos modelos de IA existentes mais poderosos a alguns é arriscado. Além disso, todos os modelos de IA refletem inevitavelmente os vieses de quem os cria, sejam eles intencionais ou não. Uma maneira de eliminar esses vieses é tornar os modelos o mais abertos possível para ajustes finos e treinamento, garantindo que qualquer pessoa, em qualquer lugar, possa acessar uma variedade de modelos com diferentes vieses.
  • Privacidade de Dados. A computação descentralizada pode ser mais atrativa do que as alternativas centralizadas quando integrada com soluções externas de dados e privacidade que oferecem aos usuários a soberania de dados. A Samsung tornou-se uma vítima quando percebeu que os engenheiros estavam usando o ChatGPT para o design de chips e vazando informações sensíveis para o ChatGPT. A Phala Network e a iExec afirmam fornecer aos usuários enclaves seguros SGX para proteger os dados do usuário, e pesquisas contínuas de criptografia totalmente homomórfica poderiam desbloquear ainda mais a computação descentralizada com privacidade garantida. À medida que a IA se integra cada vez mais em nossas vidas, os usuários valorizarão cada vez mais a capacidade de executar modelos em aplicativos com proteção de privacidade. Os usuários também precisam de suporte para serviços de composabilidade de dados, para que possam transferir dados de um modelo para outro de forma contínua.
  • Experiência do usuário (UX). A experiência do usuário continua a ser uma barreira significativa para uma adoção mais ampla de todos os tipos de aplicações e infraestruturas de cripto. Isso não é diferente para produtos de computação descentralizada e é exacerbado em alguns casos devido aos desenvolvedores precisarem entender tanto criptomoeda quanto IA. As melhorias precisam começar a partir do básico, como se juntar e extrair interações com o blockchain, para entregar a mesma saída de alta qualidade dos líderes de mercado atuais. Isso é evidente dada a dificuldade que muitos protocolos de computação descentralizada operáveis, oferecendo produtos mais baratos, têm em obter uso regular.

Contratos inteligentes e zkML

Os contratos inteligentes são a pedra angular de qualquer ecossistema blockchain. Eles executam automaticamente sob um conjunto de condições específicas, reduzindo ou eliminando a necessidade de terceiros confiáveis, permitindo assim a criação de aplicativos descentralizados complexos, como aqueles em DeFi. No entanto, a funcionalidade dos contratos inteligentes ainda é limitada porque eles operam com base em parâmetros predefinidos que devem ser atualizados.

Por exemplo, um contrato inteligente implantado para um protocolo de empréstimo / empréstimo, que contém especificações sobre quando as posições devem ser liquidadas com base em índices específicos de empréstimo-valor. Embora úteis em ambientes estáticos, esses contratos inteligentes precisam de atualizações constantes para se adaptar às mudanças na tolerância ao risco em situações dinâmicas, apresentando desafios para contratos não gerenciados por meio de processos centralizados. Por exemplo, DAOs que dependem de processos de governança descentralizada podem não reagir com rapidez suficiente aos riscos sistêmicos.

A integração de inteligência artificial (ou seja, modelos de aprendizado de máquina) em contratos inteligentes é uma maneira potencial de melhorar a funcionalidade, a segurança e a eficiência e, ao mesmo tempo, melhorar a experiência geral do usuário. No entanto, essas integrações também introduzem riscos adicionais, pois é impossível garantir que os modelos que sustentam esses contratos inteligentes não sejam explorados ou deixem de interpretar situações de cauda longa (dada a escassez de entradas de dados, situações de cauda longa são difíceis para os modelos treinarem).

Aprendizado de Máquina de Conhecimento Zero (zkML)

A aprendizagem de máquina requer uma computação significativa para executar modelos complexos, tornando impraticável a execução direta de modelos de IA em contratos inteligentes devido aos altos custos. Por exemplo, um protocolo DeFi que oferece modelos de otimização de rendimento teria dificuldade em executar esses modelos on-chain sem incorrer em taxas de gás proibitivas. Uma solução é aumentar as capacidades computacionais da blockchain subjacente. No entanto, isso também aumenta os requisitos para os validadores da cadeia, comprometendo potencialmente a descentralização. Em vez disso, alguns projetos estão explorando o uso de zkML para verificar os resultados de maneira trustless sem a necessidade de computação intensiva on-chain.

Um exemplo comum que ilustra a utilidade do zkML é quando os usuários precisam que outros executem dados através de modelos e verifiquem se seus correspondentes realmente executaram o modelo correto. Os desenvolvedores que usam provedores de computação descentralizada para treinar seus modelos podem se preocupar com esses provedores reduzindo custos ao usar modelos mais baratos que produzem saídas com diferenças quase imperceptíveis. O zkML permite que os provedores de computação executem dados através de seus modelos e gerem provas que podem ser verificadas on-chain, provando que as saídas do modelo para as entradas fornecidas estão corretas. Nesse cenário, o provedor do modelo obtém a vantagem adicional de poder oferecer seu modelo sem revelar os pesos subjacentes que produziram as saídas.

O oposto também é possível. Se os usuários desejam executar modelos em seus dados, mas não desejam dar acesso a projetos de modelo aos seus dados devido a preocupações com a privacidade (por exemplo, em verificações médicas ou informações comerciais proprietárias), eles podem executar o modelo em seus dados sem compartilhar os dados e, em seguida, verificar por meio de provas que executaram o modelo correto. Essas possibilidades ampliam enormemente o espaço de design para integrar funcionalidades de IA e contratos inteligentes, ao abordar restrições computacionais assustadoras.

Infraestrutura e ferramentas

Dado o estado inicial do campo zkML, o desenvolvimento está principalmente focado na construção da infraestrutura e das ferramentas de que as equipes precisam para converter seus modelos e saídas em provas verificáveis na cadeia. Esses produtos abstraem o aspecto de conhecimento zero o máximo possível.

EZKL e Giza são dois projetos que constroem tais ferramentas fornecendo provas verificáveis da execução do modelo de aprendizado de máquina. Ambos ajudam equipes a construir modelos de aprendizado de máquina para garantir que esses modelos possam ser executados de maneira que permita que os resultados sejam verificados on-chain de forma confiável. Ambos os projetos usam Open Neural Network Exchange (ONNX) para converter modelos de aprendizado de máquina escritos em linguagens comuns como TensorFlow e Pytorch em um formato padrão. Em seguida, eles produzem versões desses modelos que também geram provas zk durante a execução. EZKL é de código aberto, produzindo zk-SNARKs, enquanto Giza é de código fechado, produzindo zk-STARKs. Ambos os projetos atualmente são compatíveis apenas com EVM.

Nos últimos meses, EZKL fez progressos significativos na melhoria das soluções zkML, focando principalmente na redução de custos, melhoria da segurança e aceleração da geração de provas. Por exemplo, em novembro de 2023, EZKL integrou uma nova biblioteca de GPU de código aberto que reduziu o tempo de prova de agregação em 35%; em janeiro, EZKL lançou Lilith, uma solução de software para integrar clusters de computação de alto desempenho e orquestrar sistemas de trabalho concorrentes ao usar provas EZKL. A singularidade do Giza reside em fornecer ferramentas para criar modelos de aprendizado de máquina verificáveis e planejar a implementação de uma versão web3 do Hugging Face, abrindo um mercado de usuários para colaboração e compartilhamento de modelos zkML e eventualmente integrando produtos de computação descentralizada. Em janeiro, EZKL publicou uma avaliação de referência comparando o desempenho de EZKL, Giza e RiscZero (conforme descrito abaixo), mostrando tempos de prova mais rápidos e uso de memória.

A Modulus Labs está atualmente desenvolvendo uma nova tecnologia de prova de conhecimento zero (zk) especificamente adaptada para modelos de IA. A Modulus lançou um artigo intitulado 'Custo Inteligente', que implica que a execução de modelos de IA on-chain incorre em custos proibitivamente altos. Este artigo, publicado em janeiro de 2023, compara os sistemas de prova zk existentes para identificar melhorias na capacidade de prova zk e gargalos dentro dos modelos de IA. Ele revela que os produtos atuais são muito caros e ineficientes para aplicações de IA em larga escala. Expandindo a pesquisa inicial, a Modulus lançou o Remainder em novembro, um provador zk especializado com o objetivo de reduzir o custo e o tempo de prova para modelos de IA, tornando os projetos economicamente viáveis para integração em larga escala em contratos inteligentes. Seu trabalho é proprietário, tornando impossível a comparação com as soluções mencionadas, mas foi recentemente citado no post do blog de Vitalik sobre criptografia e inteligência artificial.

O desenvolvimento de ferramentas e infraestrutura é crucial para o crescimento futuro do espaço zkML, pois pode reduzir significativamente o atrito envolvido na implantação de cálculos off-chain verificáveis e na necessidade de equipes zk. A criação de interfaces seguras para praticantes de aprendizado de máquina não nativos de criptomoeda trazerem seus modelos on-chain permitirá que aplicativos experimentem casos de uso verdadeiramente inovadores. Além disso, essas ferramentas abordam uma grande barreira para a adoção mais ampla do zkML: a falta de desenvolvedores experientes interessados em trabalhar na interseção de conhecimento zero, aprendizado de máquina e criptografia.

Coprocessor

Outras soluções em desenvolvimento, referidas como “coprocessadores” (incluindo RiscZero, Axiom e Ritual), desempenham vários papéis, incluindo a verificação de cálculos off-chain on-chain. Assim como EZKL, Giza e Modulus, seu objetivo é abstrair completamente o processo de geração de provas zk, criando máquinas virtuais de conhecimento zero capazes de executar programas off-chain e gerar provas verificáveis on-chain. RiscZero e Axiom atendem a modelos de IA simples como coprocessadores mais gerais, enquanto Ritual é construído especificamente para uso com modelos de IA.

A primeira instância do Ritual, Infernet, inclui um Infernet SDK que permite aos desenvolvedores enviar solicitações de inferência para a rede e receber saídas e provas opcionais em troca. Os nós do Infernet processam esses cálculos fora da cadeia antes de retornar as saídas. Por exemplo, um DAO poderia estabelecer um processo garantindo que todas as novas propostas de governança atendam a certos requisitos antes da submissão. Cada vez que uma nova proposta é enviada, o contrato de governança aciona uma solicitação de inferência através do Infernet, invocando um modelo de IA treinado especificamente para a governança do DAO. Este modelo revisa a proposta para garantir que todos os padrões necessários sejam atendidos e retorna saídas e evidências para aprovar ou rejeitar a submissão da proposta.

No próximo ano, a equipe da Ritual planeja introduzir mais recursos, formando uma camada de infraestrutura conhecida como o superchain Ritual. Muitos dos projetos discutidos poderiam ser integrados como provedores de serviços no Ritual. A equipe do Ritual já se integrou ao EZKL para geração de prova e em breve pode adicionar recursos de outros provedores líderes. Os nós Infernet no Ritual também poderiam utilizar GPUs Akash ou io.net e consultar modelos treinados na sub-rede Bittensor. Seu objetivo final é se tornar o provedor preferido de infraestrutura de IA aberta, oferecendo serviços para aprendizado de máquina e outras tarefas relacionadas à IA para qualquer rede e qualquer carga de trabalho.

Aplicações

zkML está ajudando a reconciliar a dicotomia entre blockchain, que é inerentemente restrito em recursos, e inteligência artificial, que demanda recursos computacionais e de dados significativos. Como um dos fundadores da Giza coloca, "os casos de uso são incrivelmente ricos... É um pouco como perguntar quais eram os casos de uso para contratos inteligentes nos primeiros dias do Ethereum... O que estamos fazendo é simplesmente expandindo os casos de uso para contratos inteligentes." No entanto, como observado, o desenvolvimento atual está predominantemente ocorrendo no nível da ferramenta e infraestrutura. As aplicações ainda estão na fase exploratória, com equipes enfrentando o desafio de provar que o valor gerado pela implementação de modelos com zkML supera sua complexidade e custo.

Aplicações atuais incluem:

  • Finanças Descentralizadas (DeFi). O zkML aprimora os recursos dos contratos inteligentes, atualizando o espaço de design para DeFi. Os protocolos DeFi oferecem uma riqueza de dados verificáveis e imutáveis para modelos de aprendizado de máquina a serem utilizados na geração de rendimento ou estratégias de negociação, análise de risco, experiência do usuário, etc. Por exemplo, a Giza colaborou com a Yearn Finance para construir um mecanismo de avaliação automática de risco de prova de conceito para os novos cofres v3 da Yearn. A Modulus Labs está trabalhando com a Lyra Finance para integrar o aprendizado de máquina em seu AMM, com o Ion Protocol para implementar modelos para analisar os riscos dos validadores e ajudar a Upshot a validar suas informações de preços NFT suportadas por IA. Protocolos como NOYA (usando EZKL) e Mozaic fornecem acesso a modelos off-chain proprietários, permitindo que os usuários acessem a mineração de liquidez automatizada enquanto validam entradas e provas de dados on-chain. A Spectral Finance está desenvolvendo um mecanismo de pontuação de crédito on-chain para prever a probabilidade de os mutuários Compound ou Aave caírem em empréstimos. Devido ao zkML, esses chamados produtos "De-Ai-Fi" provavelmente se tornarão cada vez mais populares nos próximos anos.
  • Jogos. Os jogos têm sido considerados por muito tempo para interrupção e aprimoramento por meio de blockchains públicos. zkML permite jogos de inteligência artificial on-chain. A Modulus Labs realizou uma prova de conceito para jogos simples on-chain. "Leela vs the World" é um jogo de xadrez baseado em teoria dos jogos, no qual os usuários competem contra um modelo de xadrez de IA, com zkML verificando cada movimento que Leela faz com base no modelo em execução do jogo. Da mesma forma, equipes estão usando o framework EZKL para construir competições simples de canto e jogo da velha on-chain. A Cartridge está usando Giza para permitir que equipes implantem jogos totalmente on-chain, destacando recentemente um simples jogo de direção de IA no qual os usuários podem competir para criar modelos melhores para carros tentando evitar obstáculos. Embora simples, essas provas de conceito apontam para implementações futuras capazes de verificação mais complexa on-chain, como atores NPC complexos que podem interagir com economias in-game, como visto em "AI Arena", um jogo Super Smash Brothers no qual os jogadores podem treinar seus guerreiros e depois implantá-los como modelos de IA para lutar.
  • Identidade, Procedência e Privacidade. As criptomoedas têm sido usadas para verificar a autenticidade e combater a crescente questão de conteúdo gerado/manipulado por IA e deep fakes. zkML pode avançar esses esforços. WorldCoin é uma solução de verificação de identidade que requer que os usuários digitalizem suas íris para gerar um ID exclusivo. No futuro, as IDs biométricas poderão ser auto-hospedadas em dispositivos pessoais usando criptografia e verificadas usando modelos executados localmente. Os usuários poderiam então fornecer evidências biométricas sem revelar suas identidades, defendendo-se assim contra ataques Sybil enquanto garantia a privacidade. Isso também pode se aplicar a outras inferências exigidas pela privacidade, como o uso de modelos para analisar dados/imagens médicas para detecção de doenças, verificar personalidades e desenvolver algoritmos de correspondência em aplicativos de namoro ou instituições de seguros e empréstimos que precisam verificar informações financeiras.

Perspectiva

zkML permanece experimental, com a maioria dos projetos se concentrando na construção de primitivas de infraestrutura e provas de conceito. Os desafios atuais incluem custos computacionais, limitações de memória, complexidade do modelo, ferramentas e infraestrutura limitadas e talento do desenvolvedor. Em suma, há um trabalho considerável a ser feito antes que o zkML possa ser implementado na escala exigida pelos produtos de consumo.

No entanto, à medida que o campo amadurece e essas limitações são abordadas, o zkML se tornará um componente-chave da integração da inteligência artificial com a criptografia. Essencialmente, o zkML promete trazer qualquer escala de computação off-chain on-chain, mantendo as mesmas ou semelhantes garantias de segurança que a execução on-chain. No entanto, antes que essa visão seja concretizada, os primeiros a adotar a tecnologia continuarão a ter que equilibrar a privacidade e a segurança do zkML com a eficiência das alternativas.

Agentes de Inteligência Artificial

Agentes de Inteligência Artificial

Uma das integrações mais empolgantes de inteligência artificial e criptomoedas é o experimento em andamento com agentes de inteligência artificial. Os agentes são robôs autônomos capazes de receber, interpretar e executar tarefas usando modelos de IA. Isso pode variar desde ter um assistente pessoal disponível o tempo todo, ajustado às suas preferências, até contratar um agente financeiro para gerenciar e ajustar sua carteira de investimentos com base em suas preferências de risco.

Dado que a criptomoeda oferece uma infraestrutura de pagamento sem permissão e sem confiança, os agentes e a criptomoeda podem ser bem integrados. Uma vez treinados, os agentes terão uma carteira, permitindo-lhes conduzir transações por conta própria usando contratos inteligentes. Por exemplo, os agentes de hoje podem coletar informações na internet e depois negociar em mercados de previsão com base em modelos.

Agent Providers

Morpheus é um dos mais recentes projetos de agente de código aberto lançados em 2024 no Ethereum e Arbitrum. Seu white paper foi publicado anonimamente em setembro de 2023, fornecendo uma base para a formação e construção de comunidades, incluindo figuras proeminentes como Erik Vorhees. O white paper inclui um protocolo de agente inteligente para download, um LLM de código aberto que pode ser executado localmente, gerenciado pela carteira do usuário e interagir com contratos inteligentes. Ele usa classificações de contratos inteligentes para ajudar os agentes a determinar com quais contratos inteligentes podem ser interagidos com segurança com base em critérios como o número de transações processadas.

O white paper também fornece um quadro para a construção da rede Morpheus, incluindo as estruturas de incentivo e infraestrutura necessárias para executar o protocolo de agente inteligente. Isso inclui incentivos para os colaboradores construírem interfaces para interagir com os agentes, APIs para os desenvolvedores construírem agentes de plug-in para interação mútua e soluções de nuvem para que os usuários acessem a computação e armazenamento necessários para executar agentes em dispositivos de borda. O financiamento inicial do projeto foi lançado no início de fevereiro, com o lançamento completo do protocolo esperado para o segundo trimestre de 2024.

A Rede de Infraestrutura Autônoma Descentralizada (DAIN) é um novo protocolo de infraestrutura de agente que cria uma economia de agente para agente no Solana. O objetivo da DAIN é permitir que agentes de diferentes empresas interajam perfeitamente uns com os outros por meio de uma API comum, abrindo significativamente o espaço de design para agentes de IA, com foco em agentes que podem interagir com produtos web2 e web3. Em janeiro, a DAIN anunciou sua primeira parceria com a Asset Shield, permitindo que os usuários adicionem "agentes signatários" aos seus multisigs, capazes de interpretar transações e aprovar/rejeitar com base em regras definidas pelo usuário.

Fetch.AI é um dos protocolos de agentes de IA implantados mais cedo e desenvolveu um ecossistema para construir, implantar e usar agentes on-chain usando tokens FET e carteiras Fetch.AI. O protocolo oferece um conjunto abrangente de ferramentas e aplicativos para usar agentes, incluindo funções de carteira para interagir e solicitar agentes.

Autonolas, fundada por ex-membros da equipe da Fetch, é um mercado aberto para criar e usar agentes de IA descentralizados. Autonolas também fornece um conjunto de ferramentas para desenvolvedores construírem agentes de IA hospedados off-chain que podem se conectar a várias blockchains, incluindo Polygon, Ethereum, Gnosis Chain e Solana. Atualmente, eles possuem alguns produtos de conceito de prova de conceito de agentes ativos, incluindo para mercados preditivos e governança de DAO.

SingularityNet está construindo um mercado descentralizado para agentes de IA, onde agentes de IA especializados podem ser implantados, que podem ser contratados por outros agentes para realizar tarefas complexas. Outras empresas como AlteredStateMachine estão construindo integrações de agentes de IA com NFTs. Os usuários cunham NFTs com atributos aleatórios, que lhes conferem vantagens e desvantagens em diferentes tarefas. Esses agentes podem então ser treinados para aprimorar certos atributos para uso em jogos, DeFi ou como assistentes virtuais e negociados com outros usuários.

No geral, esses projetos vislumbram um futuro ecossistema de agentes capazes de trabalhar colaborativamente não apenas para realizar tarefas, mas também para ajudar a construir uma inteligência artificial geral. Agentes verdadeiramente complexos terão a capacidade de completar autonomamente qualquer tarefa do usuário. Por exemplo, agentes totalmente autônomos serão capazes de descobrir como contratar outro agente para integrar uma API e, em seguida, executar uma tarefa sem precisar garantir que o agente já tenha integrado APIs externas (como sites de reserva de viagens) antes de usar. Do ponto de vista do usuário, não há necessidade de verificar se um agente pode concluir uma tarefa, pois o agente pode determinar isso por si próprio.

Bitcoin e Agentes de IA

Em julho de 2023, a Lightning Labs lançou uma implementação de prova de conceito para utilizar agentes na Lightning Network, apelidada de Bitcoin suite pela LangChain. Este produto é particularmente intrigante porque visa enfrentar um problema que está se tornando cada vez mais grave no mundo Web 2—as chaves de API restritas e caras de aplicações web.

LangChain aborda esse problema fornecendo aos desenvolvedores um conjunto de ferramentas que permitem aos agentes comprar, vender e manter Bitcoin, bem como consultar chaves de API e enviar micropagamentos. Nas vias de pagamento tradicionais, os micropagamentos são proibitivamente caros devido às taxas, mas na Lightning Network, os agentes podem enviar um número ilimitado de micropagamentos diariamente a um custo mínimo. Quando usado em conjunto com o framework de API de medição de pagamento L402 da LangChain, as empresas podem ajustar os custos de acesso de suas APIs com base em aumentos e diminuições no uso, em vez de definir um padrão único e custoso.

No futuro, as atividades em cadeia serão predominantemente impulsionadas por interações entre agentes e agentes, necessitando de mecanismos para garantir que os agentes possam interagir entre si sem custos proibitivos. Esse exemplo inicial demonstra o potencial de usar agentes em trilhos de pagamento sem permissão e economicamente eficientes, abrindo possibilidades para novos mercados e interações econômicas.

Perspectiva

O campo dos agentes ainda está em seus estágios iniciais. Os projetos apenas começaram a lançar agentes funcionais capazes de lidar com tarefas simples — acesso normalmente limitado a desenvolvedores e usuários experientes. No entanto, ao longo do tempo, um dos impactos mais significativos dos agentes de inteligência artificial nas criptomoedas será a melhoria da experiência do usuário em todas as verticais. As transações começarão a migrar de cliques para texto, permitindo que os usuários interajam com agentes on-chain através de interfaces conversacionais. Equipes como a Dawn Wallet já lançaram carteiras com chatbots, permitindo que os usuários interajam on-chain.

Além disso, permanece incerto como os agentes vão operar na Web 2, já que os trilhos financeiros dependem de instituições bancárias regulamentadas que não podem operar 24/7 ou facilitar transações transfronteiriças perfeitas. Como destacou Lyn Alden, a falta de reembolsos e a capacidade de lidar com microtransações tornam os trilhos de criptomoeda particularmente atraentes em comparação com cartões de crédito. No entanto, se os agentes se tornarem um meio mais comum para transações, é provável que os provedores de pagamento e aplicativos existentes se adaptem rapidamente, implementando a infraestrutura necessária para operar nos trilhos financeiros existentes, diminuindo assim alguns benefícios de usar criptomoeda.

Atualmente, os agentes podem estar limitados a transações de criptomoeda determinísticas, onde uma entrada determinada garante uma saída determinada. Ambos os modelos destacaram a capacidade desses agentes de descobrir como realizar tarefas complexas, e as ferramentas estão expandindo o leque de tarefas que podem completar, ambas as quais exigem um desenvolvimento adicional. Para que os agentes de cripto se tornem úteis além de casos de uso de criptomoeda inovadores on-chain, é necessária uma integração e aceitação mais amplas da criptomoeda como forma de pagamento, juntamente com clareza regulatória. No entanto, à medida que esses componentes se desenvolvem, os agentes estão preparados para se tornar um dos maiores consumidores de computação descentralizada e soluções zkML, recebendo e resolvendo autonomamente qualquer tarefa de maneira não determinística.

Conclusão

A IA introduz as mesmas inovações na criptomoeda que vimos na web2, aprimorando tudo, desde o desenvolvimento de infraestrutura até a experiência do usuário e acessibilidade. No entanto, os projetos ainda estão em estágios iniciais de desenvolvimento, e a integração de criptomoeda e IA a curto prazo será principalmente impulsionada por integrações off-chain.

Produtos como Copilot estão definidos para “aumentar a eficiência do desenvolvedor em 10 vezes,” e aplicações Layer 1 e DeFi já lançaram plataformas de desenvolvimento assistidas por IA em colaboração com grandes empresas como Microsoft. Empresas como Cub3.ai e Test Machine estão desenvolvendo integrações de IA para auditoria de contratos inteligentes e monitoramento de ameaças em tempo real para aprimorar a segurança on-chain. Chatbots LLM estão sendo treinados com dados on-chain, documentação de protocolo e aplicações para fornecer aos usuários acessibilidade e experiência do usuário aprimoradas.

O desafio para integrações mais avançadas que realmente aproveitam a tecnologia subjacente das criptomoedas continua sendo provar que a implementação de soluções de IA on-chain é tecnicamente e economicamente viável. O desenvolvimento de computação descentralizada, zkML e agentes de IA aponta para verticais promissoras que lançam as bases para um futuro profundamente interconectado de criptomoedas e IA.

Aviso Legal:

  1. Este artigo é reproduzido detechflow, Todos os direitos autorais pertencem ao autor original [Lucas Tcheyan]. Se houver objeções a esta reimpressão, entre em contato com o Gate Aprenderequipe e eles vão lidar com isso prontamente.
  2. Aviso de responsabilidade: As opiniões expressas neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipe Gate Learn. A menos que mencionado, copiar, distribuir ou plagiar os artigos traduzidos é proibido.
即刻開始交易
註冊並交易即可獲得
$100
和價值
$5500
理財體驗金獎勵!