Galaxy Digital: Explorando a Interseção da Criptomoeda e IA

Intermediário2/28/2024, 4:55:32 AM
Este artigo explora a interseção da criptomoeda e da inteligência artificial, destacando o surgimento das blockchains públicas como um dos avanços mais profundos na história da ciência da computação. Discute como o desenvolvimento da IA já está tendo um impacto significativo em nosso mundo.

Introdução

O surgimento de blockchains públicos marca um avanço profundo na história da ciência da computação, enquanto o desenvolvimento da inteligência artificial está a ter um impacto significativo no nosso mundo. A tecnologia blockchain oferece novos modelos para a liquidação de transações, armazenamento de dados e design de sistemas, enquanto a inteligência artificial representa uma revolução na computação, análise e entrega de conteúdo. As inovações nestas indústrias estão a desencadear novos casos de uso que poderiam acelerar a adoção de ambos os setores nos próximos anos. Este relatório examina a integração em curso da criptomoeda e da inteligência artificial, focando em novos casos de uso que visam aproximar as duas áreas e aproveitar as suas potencialidades. Especificamente, analisa projetos que desenvolvem protocolos de computação descentralizada, infraestrutura de aprendizagem de máquina de conhecimento zero (zkML) e agentes de IA.

As criptomoedas oferecem uma camada de liquidação permissionless, trustless e componível para a IA, desbloqueando casos de uso como acesso mais fácil às hardware através de sistemas de computação descentralizados, construindo agentes de IA capazes de executar tarefas complexas que exigem troca de valor, e desenvolvendo soluções de identidade e proveniência para combater ataques Sybil e deepfakes. A IA traz à criptomoeda muitos dos mesmos benefícios vistos na Web 2.0, incluindo experiências aprimoradas do usuário e do desenvolvedor através de grandes modelos de linguagem como ChatGPT e Copilot, e potencial significativamente melhorado de funcionalidade e automação para contratos inteligentes. O blockchain fornece o ambiente transparente e rico em dados necessário para a IA, embora o poder de computação limitado do blockchain seja uma grande barreira para a integração direta de modelos de IA.

As experiências e a eventual adoção na interseção da criptomoeda e da IA são impulsionadas pelas mesmas forças que impulsionam os casos de uso mais promissores para a criptomoeda: acesso a uma camada de coordenação sem permissão e sem confiança, facilitando uma transferência de valor melhor. Dado o vasto potencial, os intervenientes neste campo precisam de compreender as formas fundamentais como estas tecnologias se intersectam.

Pontos-chave:

    • Num futuro próximo (de 6 meses a 1 ano), a integração de criptomoeda e IA será dominada por aplicações de IA que melhoram a eficiência dos programadores, a auditabilidade e segurança de contratos inteligentes, e a acessibilidade dos utilizadores. Estas integrações não são específicas para criptomoeda, mas melhoram a experiência para os programadores e utilizadores on-chain.
    • À medida que as GPUs de alto desempenho continuam escassas, os produtos de computação descentralizada estão a implementar produtos GPU personalizados para IA para impulsionar a adoção.
    • A experiência do utilizador e os obstáculos regulamentares continuam a ser obstáculos à atração de clientes de computação descentralizada. No entanto, os desenvolvimentos recentes da OpenAI e as análises regulamentares em curso nos EUA destacam a proposta de valor das redes de IA descentralizadas, sem permissão, resistentes à censura e descentralizadas.
    • A integração de IA on-chain, especialmente contratos inteligentes capazes de utilizar modelos de IA, requer melhorias na tecnologia zkML e outros métodos para verificar cálculos off-chain. A falta de ferramentas abrangentes, talento de desenvolvedor e altos custos são barreiras à adoção.
    • Os agentes de IA são bem adequados para criptomoedas, onde os usuários (ou os próprios agentes) podem criar carteiras para transacionar com outros serviços, agentes ou indivíduos - uma capacidade impossível com os sistemas financeiros tradicionais. É necessária uma integração adicional com produtos não cripto para uma adoção mais ampla.

Termos

A inteligência artificial é a utilização de computação e máquinas para imitar as capacidades de raciocínio e resolução de problemas dos seres humanos.

As redes neurais são um método de treino de modelos de inteligência artificial. Elas processam entradas através de camadas algorítmicas discretas, refinando-as até que a saída desejada seja produzida. As redes neurais consistem em equações com pesos que podem ser ajustados para alterar a saída. Podem requerer dados extensivos e computação para o treino, a fim de garantir saídas precisas. Esta é uma das formas mais comuns de desenvolver modelos de IA (por exemplo, o ChatGPT baseia-se num processo de rede neural com base em Transformers).

O treino é o processo de desenvolvimento de redes neurais e outros modelos de IA. Requer uma quantidade significativa de dados para treinar os modelos a interpretar corretamente as entradas e produzir saídas precisas. Durante o treino, os pesos da equação do modelo são continuamente modificados até que uma saída satisfatória seja produzida. O treino pode ser muito dispendioso. Por exemplo, o ChatGPT usa dezenas de milhares das suas próprias GPUs para processar dados. Equipas com menos recursos frequentemente dependem de fornecedores de computação especializados, como Amazon Web Services, Azure e Google Cloud providers.

A inferência é a utilização real de modelos de IA para obter saídas ou resultados (por exemplo, utilizando o ChatGPT para criar um esboço para um artigo sobre a interseção de criptomoeda e IA). A inferência é usada ao longo do processo de treino e no produto final. Devido aos custos computacionais, mesmo após o treino estar completo, os custos operacionais podem ser elevados, embora a sua intensidade computacional seja menor do que no treino.

As Provas de Conhecimento Zero (ZKP) permitem a verificação de declarações sem revelar informações subjacentes. Isto é útil em criptomoeda por duas razões principais: 1) Privacidade e 2) Dimensionamento. Para a privacidade, possibilita aos utilizadores efetuar transações sem revelar informações sensíveis (por exemplo, quanto ETH está numa carteira). Para o dimensionamento, permite que os cálculos off-chain sejam provados on-chain mais rapidamente do que reexecutar os cálculos. Isto permite que blockchains e aplicações executem cálculos de forma barata off-chain e depois os verifiquem on-chain. Para mais informações sobre o conhecimento zero e o seu papel nas Máquinas Virtuais Ethereum, consulte o relatório de Christine Kim sobre zkEVMs: O Futuro da Escalabilidade do Ethereum.

Mapa do Mercado de IA/Criptomoeda

Projetos que integram inteligência artificial e criptomoeda ainda estão a construir a infraestrutura subjacente necessária para suportar interações de IA on-chain em grande escala.

Mercados de computação descentralizada estão surgindo para fornecer o vasto hardware físico necessário para treinar e inferir modelos de IA, principalmente na forma de Unidades de Processamento Gráfico (GPUs). Estes mercados de dois lados conectam aqueles que alugam e procuram alugar computação, facilitando a transferência de valor e a verificação de cálculos. Dentro da computação descentralizada, várias subcategorias que oferecem funcionalidades adicionais estão surgindo. Além de mercados bilaterais, este relatório também analisa fornecedores de treinamento de aprendizado de máquina que oferecem treinamento verificável e ajuste fino de saídas, bem como projetos dedicados a vincular computação e geração de modelos para permitir IA, frequentemente referidos como redes de incentivo inteligentes.

zkML é uma área de foco emergente para projetos que visam fornecer saídas de modelo verificáveis on-chain de forma economicamente viável e oportuna. Esses projetos possibilitam principalmente que aplicações lidem com solicitações computacionais pesadas off-chain, para depois publicar saídas verificáveis on-chain, provando que a carga de trabalho off-chain estava completa e precisa. Atualmente, zkML é tanto caro quanto demorado, mas está sendo cada vez mais utilizado como uma solução. Isso é evidente no crescente número de integrações entre fornecedores de zkML e aplicações DeFi/jogos que desejam aproveitar modelos de IA.

A ampla oferta de computação e a capacidade de verificar a computação on-chain abrem a porta para agentes de IA on-chain. Os agentes são modelos treinados capazes de executar pedidos em nome dos usuários. Os agentes oferecem a oportunidade de melhorar significativamente a experiência on-chain, permitindo aos usuários executar transações complexas simplesmente conversando com um chatbot. No entanto, até o momento, os projetos de agentes ainda estão focados no desenvolvimento da infraestrutura e ferramentas para implantação fácil e rápida.

Computação Descentralizada

Visão geral

A inteligência artificial requer uma extensa computação para treinar modelos e executar inferências. Na última década, à medida que os modelos se tornaram cada vez mais complexos, a demanda por computação cresceu exponencialmente. Por exemplo, a OpenAI observou que de 2012 a 2018, a demanda computacional de seus modelos dobrava a cada dois anos, passando a dobrar a cada três meses e meio. Isso levou a um aumento na demanda por GPUs, com alguns mineradores de criptomoedas até mesmo reutilizando suas GPUs para fornecer serviços de computação em nuvem. À medida que a competição pelo acesso computacional se intensifica e os custos aumentam, alguns projetos estão aproveitando a tecnologia criptográfica para oferecer soluções de computação descentralizada. Eles fornecem computação sob demanda a preços competitivos, permitindo que equipes treinem e executem modelos de forma acessível. Em alguns casos, os trade-offs podem envolver desempenho e segurança.

A procura por GPUs de última geração (por exemplo, as produzidas pela Nvidia) é significativa. Em setembro, a Tether adquiriu uma participação na empresa alemã de mineração de bitcoins Northern Data, alegadamente gastando $420 milhões para adquirir 10.000 GPUs H100 (uma das GPUs mais avançadas para treino de IA). O tempo de espera para adquirir hardware de primeira linha pode ser de pelo menos seis meses, se não mais em muitos casos. Além disso, as empresas muitas vezes são obrigadas a assinar contratos de longo prazo para garantir volumes computacionais que talvez nem usem. Isso pode levar a situações em que os recursos computacionais estão disponíveis, mas não acessíveis no mercado. Os sistemas de computação descentralizada ajudam a resolver essas ineficiências de mercado, criando um mercado secundário onde os proprietários de computação podem imediatamente sublocar sua capacidade excedente após notificação, liberando assim novo abastecimento.

Além da competitividade de preços e acessibilidade, uma proposta de valor-chave da computação descentralizada é a resistência à censura. O desenvolvimento de IA de ponta está cada vez mais dominado por grandes empresas de tecnologia com capacidades incomparáveis de acesso computacional e de dados. O primeiro tema-chave destacado no Relatório Anual do Índice de IA de 2023 foi a crescente ultrapassagem da academia pela indústria no desenvolvimento de modelos de IA, concentrando o controle nas mãos de alguns líderes tecnológicos. Isso levanta preocupações sobre o potencial deles em exercer uma influência significativa na definição das normas e valores que sustentam os modelos de IA, especialmente depois que essas empresas de tecnologia pressionam por regulamentações para limitar o desenvolvimento de IA incontrolável.

Verticals in Computação Descentralizada

Vários modelos de computação descentralizada surgiram nos últimos anos, cada um com seu próprio foco e compensações.

Computação generalizada

De uma forma geral, projetos como Akash, io.net, iExec e Cudos são aplicações de computação descentralizada, oferecendo além de dados e soluções computacionais gerais, acesso a computação especializada para treinamento e inferência de IA. Akash se destaca como a única plataforma de 'super nuvem' totalmente open-source, utilizando o Cosmos SDK para sua rede de prova de participação. AKT, o token nativo da Akash, serve como um método de pagamento para garantir a rede e incentivar a participação. Lançada em 2020, a mainnet da Akash inicialmente focou em um mercado de computação em nuvem sem permissão, oferecendo serviços de armazenamento e locação de CPU. Em junho de 2023, a Akash introduziu um testnet centrado em GPU, seguido por um lançamento de mainnet em GPU em setembro, permitindo aluguéis de GPU para treinamento e inferência de IA.

O ecossistema Akash é composto por dois participantes principais: inquilinos, que procuram recursos de computação, e fornecedores, os fornecedores de computação. Um processo de leilão reverso facilita a correspondência entre inquilinos e fornecedores, onde os inquilinos publicam seus requisitos de computação, incluindo localizações de servidores preferenciais ou tipos de hardware e seu orçamento. Os fornecedores então fazem ofertas, sendo o licitante mais baixo premiado com a tarefa. Os validadores mantêm a integridade da rede, com um limite atual de 100 validadores, planejado para aumentar ao longo do tempo. A participação como validador está aberta a quem apostar mais AKT do que o validador atual com a menor aposta. Os detentores de AKT podem delegar seus tokens aos validadores, com taxas de transação e recompensas de bloco distribuídas em AKT. Além disso, para cada locação, a rede Akash ganha uma “taxa de participação,” decidida pela comunidade, distribuída aos detentores de AKT.

Mercado secundário

O mercado secundário para computação descentralizada visa resolver ineficiências no mercado computacional existente, onde restrições de oferta levam as empresas a acumular recursos além de suas necessidades e contratos de longo prazo com fornecedores de nuvem limitam ainda mais a oferta. As plataformas de computação descentralizada desbloqueiam novas ofertas, permitindo que qualquer pessoa com necessidades computacionais se torne um fornecedor.

Se a explosão na procura de GPUs para treino de IA se traduzirá em utilização sustentada da rede na Akash, ainda está por ver. Historicamente, a Akash ofereceu serviços de mercado baseados em CPU com um desconto de 70-80% em comparação com alternativas centralizadas, no entanto, esta estratégia de preços não impulsionou significativamente a adoção. A atividade da rede, medida por arrendamentos ativos, estabilizou, com uma média de 33% de utilização de computação, 16% de memória e 13% de armazenamento até ao segundo trimestre de 2023, impressionante para a adoção on-chain, mas indicativo de uma oferta ainda a superar a procura. Meio ano após o lançamento da rede de GPU, é demasiado cedo para uma avaliação definitiva da adoção a longo prazo, embora os primeiros sinais mostrem uma utilização média de GPU de 44%, impulsionada principalmente pela procura de GPUs de alta qualidade como o A100, mais de 90% dos quais foram alugados.

As despesas diárias da Akash quase dobraram desde a introdução das GPUs, atribuídas em parte ao aumento do uso de outros serviços, especialmente CPUs, mas principalmente devido ao novo uso de GPU.

Os preços são competitivos com, ou em alguns casos mais caros do que, concorrentes centralizados como Lambda Cloud e Vast.ai. A alta procura por GPUs de ponta, como o H100 e A100, significa que a maioria dos proprietários desse equipamento não está interessada em listá-los num mercado com preços competitivos.

Apesar dos lucros iniciais, as barreiras à adoção permanecem. As redes de computação descentralizadas devem dar mais passos para gerar demanda e oferta, com equipes explorando a melhor forma de atrair novos usuários. Por exemplo, no início de 2024, a Akash aprovou a Proposta 240, aumentando a emissão do AKT para os fornecedores de GPU para incentivar mais oferta, especialmente para GPUs de alta qualidade. As equipes também estão trabalhando em modelos de prova de conceito para demonstrar as capacidades ao vivo de suas redes aos potenciais usuários. A Akash está treinando seus modelos fundamentais e lançou produtos de geração de chatbot e imagem que utilizam as GPUs da Akash. Da mesma forma, a io.net desenvolveu um modelo de difusão estável e está lançando novas funcionalidades de rede para melhorar a emulação do desempenho e escala da rede.

Treino descentralizado de aprendizagem de máquinas

Para além das plataformas de computação geral que podem satisfazer as exigências da inteligência artificial, está também a surgir um grupo de fornecedores profissionais de GPU de IA focados na formação de modelos de aprendizagem automática. Por exemplo, a Gensyn está a "coordenar energia e hardware para construir inteligência coletiva," com a filosofia de que "se alguém quer treinar algo e alguém está disposto a treiná-lo, então esse treino deve ser permitido acontecer."

Este protocolo envolve quatro participantes principais: submetedores, solucionadores, validadores e denunciantes. Os submetedores enviam tarefas com pedidos de treino para a rede. Estas tarefas incluem os objetivos de treino, os modelos a serem treinados e os dados de treino. Como parte do processo de submissão, os submetedores precisam fazer um pré-pagamento do custo computacional estimado necessário pelos solucionadores.

Após a submissão, as tarefas são atribuídas aos solucionadores que efetivamente realizam o treinamento do modelo. Em seguida, os solucionadores submetem as tarefas concluídas aos validadores, que são responsáveis por verificar o treinamento para garantir que foi concluído corretamente. Os denunciantes têm a tarefa de garantir que os validadores atuem honestamente. Para motivar os denunciantes a participar na rede, a Gensyn planeia oferecer regularmente provas deliberadamente incorretas, recompensando os denunciantes que as detetam.

Para além de fornecer cálculos para cargas de trabalho relacionadas com IA, uma proposta de valor chave do Gensyn é o seu sistema de verificação, que ainda está em desenvolvimento. A verificação é necessária para garantir que o cálculo externo pelos fornecedores de GPU é executado corretamente (ou seja, garantindo que os modelos dos utilizadores são treinados da forma que desejam). O Gensyn aborda este problema com uma abordagem única, utilizando métodos de verificação inovadores chamados "provas de aprendizagem probabilísticas, protocolos precisos baseados em gráficos e jogos de incentivo no estilo Truebit." Este é um modelo de resolução otimista que permite aos validadores confirmar que os solucionadores executaram o modelo corretamente sem precisar executar completamente o modelo eles mesmos, um processo que é dispendioso e ineficiente.

Para além do seu método inovador de verificação, a Gensyn também alega ser rentável em comparação com alternativas centralizadas e concorrentes de criptomoedas - oferecendo preços de formação em ML até 80% mais baratos do que a AWS, enquanto supera projetos semelhantes como o Truebit em testes.

Se estes resultados iniciais podem ser replicados em grande escala em redes descentralizadas ainda está por ver. A Gensyn espera utilizar a capacidade computacional excedentária de fornecedores como pequenos centros de dados, utilizadores individuais e, eventualmente, pequenos dispositivos móveis como smartphones. No entanto, como a própria equipa da Gensyn admite, depender de fornecedores de computação heterogéneos introduz alguns novos desafios.

Para fornecedores centralizados como Google Cloud e Coreweave, os custos de computação são caros, mas a comunicação entre as computações (largura de banda e latência) é barata. Esses sistemas são projetados para facilitar a comunicação entre hardware o mais rapidamente possível. Gensyn perturba esse framework ao reduzir os custos de computação, permitindo que qualquer pessoa no mundo ofereça GPUs, mas ao mesmo tempo aumenta os custos de comunicação, já que a rede agora deve coordenar trabalhos de computação em hardware heterogêneo distante. Gensyn ainda não foi lançado, mas representa uma prova de conceito que poderia ser alcançada ao construir um protocolo descentralizado de treinamento de aprendizado de máquina.

Inteligência Geral Descentralizada

As plataformas de computação descentralizada também oferecem a possibilidade de projetar métodos para a criação de inteligência artificial. Bittensor é um protocolo de computação descentralizada construído no Substrate, tentando responder à pergunta: "Como transformamos a inteligência artificial em um método colaborativo?" O Bittensor visa alcançar a descentralização e mercantilização da geração de IA. Lançado em 2021, ele espera utilizar o poder dos modelos colaborativos de aprendizado de máquina para iterar e produzir continuamente uma IA melhor.

Bittensor tira inspiração do Bitcoin, com sua moeda nativa, TAO, tendo um limite de oferta de 21 milhões e um ciclo de redução para metade a cada quatro anos (a primeira redução para metade está definida para 2025). Ao contrário da utilização de Prova de Trabalho para gerar números aleatórios corretos e obter recompensas de bloco, o Bittensor depende de “Prova de Inteligência”, exigindo que os mineiros executem modelos para gerar saídas em resposta a pedidos de inferência.

Incentivizando Inteligência

Inicialmente, o Bittensor dependia de um modelo de Mixture of Experts (MoE) para gerar saídas. Quando é submetido um pedido de inferência, o modelo MoE não se baseia num modelo generalizado, mas encaminha o pedido para o modelo mais preciso para o tipo de entrada fornecida. Imagine construir uma casa, onde contrata vários especialistas para diferentes aspectos do processo de construção (por exemplo, arquitetos, engenheiros, pintores, trabalhadores da construção civil, etc.). O MoE aplica isso aos modelos de aprendizagem de máquina, tentando alavancar as saídas de diferentes modelos com base na entrada. Como explicado pelo fundador do Bittensor, Ala Shaabana, isto é como "falar com uma sala cheia de pessoas inteligentes para obter a melhor resposta, em vez de falar com uma única pessoa." Devido aos desafios na garantia de encaminhamento correto, sincronização de mensagens para o modelo correto e incentivos, este método foi colocado em espera até ao desenvolvimento adicional do projeto.

Na rede Bittensor, existem dois participantes principais: validadores e mineradores. Os validadores enviam pedidos de inferência para os mineradores, revisam suas saídas e classificam-nas com base na qualidade de suas respostas. Para garantir que suas classificações sejam confiáveis, os validadores recebem uma pontuação de “vtrust” com base em quão consistentes são suas classificações com outros validadores. Quanto maior a pontuação de vtrust de um validador, mais emissões de TAO eles recebem. Isso é para incentivar os validadores a chegar a um consenso sobre as classificações do modelo ao longo do tempo, uma vez que quanto mais validadores concordam com as classificações, maior são suas pontuações individuais de vtrust.

Os mineradores, também conhecidos como servidores, são participantes da rede que executam os modelos reais de aprendizado de máquina. Eles competem para fornecer as saídas mais precisas para as consultas dos validadores, e quanto mais precisas as saídas, mais emissões de GAT eles ganham. Os mineradores são livres para gerar essas saídas como desejarem. Por exemplo, no futuro, é totalmente possível para os mineiros Bittensor ter previamente modelos treinados em Gensyn e usá-los para ganhar emissões de TAO.

Hoje, a maioria das interações ocorre diretamente entre validadores e mineiros. Os validadores enviam inputs aos mineiros e solicitam outputs (ou seja, treinamento do modelo). Uma vez que os validadores consultam os mineiros na rede e recebem suas respostas, eles classificam os mineiros e enviam suas classificações para a rede.

A interação entre validadores (baseada em PoS) e mineradores (baseada em Modelo de Prova, uma forma de PoW) é conhecida como consenso Yuma. O objetivo é incentivar os mineradores a produzir as melhores saídas para ganhar emissões de TAO e incentivar os validadores a classificar com precisão as saídas dos mineradores, obtendo pontuações de vtrust mais altas e aumentando suas recompensas de TAO, formando assim um mecanismo de consenso para a rede.

Sub-redes e Aplicações

As interações no Bittensor envolvem principalmente validadores que enviam pedidos aos mineradores e avaliam as suas saídas. No entanto, à medida que a qualidade dos mineradores contribuintes melhora e a inteligência geral da rede cresce, o Bittensor está a criar uma camada de aplicação em cima da sua pilha existente para que os programadores possam construir aplicações que questionam a rede Bittensor.

Em outubro de 2023, a Bittensor introduziu sub-redes através da atualização Revolution, dando um passo significativo rumo à realização deste objetivo. As sub-redes são redes separadas na Bittensor que incentivam comportamentos específicos. A Revolution abriu a rede a qualquer pessoa interessada em criar sub-redes. Dentro de meses após o seu lançamento, mais de 32 sub-redes foram lançadas, incluindo sub-redes para prompts de texto, scraping de dados, geração de imagens e armazenamento. À medida que as sub-redes amadurecem e se tornam prontas para o produto, os criadores de sub-redes também criarão integrações de aplicativos, permitindo que as equipas construam aplicações que consultem sub-redes específicas. Algumas aplicações, como chatbots, geradores de imagens, bots de resposta do Twitter e mercados de previsão, já existem, mas não existem incentivos formais além do financiamento da Fundação Bittensor para que os validadores aceitem e encaminhem essas consultas.

Para uma explicação mais clara, abaixo está um exemplo de como o Bittensor pode funcionar uma vez que os aplicativos são integrados à rede.

As sub-redes ganham TAO com base no desempenho avaliado pela rede raiz. A rede raiz, situada acima de todas as sub-redes, age essencialmente como uma sub-rede especial e é gerida pelos 64 maiores validadores de sub-redes por participação. Os validadores da rede raiz classificam as sub-redes com base no seu desempenho e alocam periodicamente emissões de TAO às sub-redes. Deste modo, as sub-redes individuais atuam como mineradores para a rede raiz.

Visão do Bittensor

Bittensor ainda está a passar por dores de crescimento à medida que expande a funcionalidade do protocolo para incentivar a geração de inteligência em várias sub-redes. Os mineradores estão constantemente a conceber novas formas de atacar a rede para obter mais recompensas TAO, como alterando ligeiramente a saída de inferências altamente avaliadas executadas pelos seus modelos e depois submetendo múltiplas variantes. Propostas de governação que afetam toda a rede só podem ser submetidas e implementadas pelo Triunvirato, composto inteiramente por partes interessadas da Fundação Opentensor (notavelmente, as propostas requerem aprovação do Senado Bittensor, composto por validadores Bittensor, antes da implementação). A tokenómica do projeto está a ser modificada para melhorar os incentivos para o uso inter-redes de TAO. O projeto também ganhou rapidamente notoriedade pela sua abordagem única, com o CEO de um dos websites de IA mais populares, HuggingFace, a afirmar que Bittensor deveria adicionar os seus recursos ao site.

Num artigo recente intitulado “Paradigma Bittensor” publicado pelos desenvolvedores principais, a equipa delineou a visão da Bittensor de se tornar eventualmente “agnóstica em relação ao que é medido.” Teoricamente, isto poderia permitir que a Bittensor desenvolvesse subredes que incentivam qualquer tipo de comportamento suportado pelo TAO. Ainda existem consideráveis limitações práticas — principalmente, a prova de que estas redes podem escalar para lidar com uma gama tão diversa de processos e que os incentivos potenciais impulsionam o progresso para além dos produtos centralizados.

Construindo uma pilha de computação descentralizada para modelos de inteligência artificial

A seção acima fornece uma visão geral aprofundada de vários tipos de protocolos de computação de inteligência artificial (IA) descentralizados atualmente em desenvolvimento. Em seus estágios iniciais de desenvolvimento e adoção, eles estabelecem as bases para um ecossistema que poderia eventualmente facilitar a criação de "blocos de construção de IA", semelhante ao conceito de "legos de dinheiro" no DeFi. A capacidade de composição de blockchains sem permissão permite a possibilidade de cada protocolo ser construído sobre outro, criando um ecossistema de IA descentralizado mais abrangente. \
Por exemplo, é assim que Akash, Gensyn e Bittensor podem interagir para responder a solicitações de inferência.

É crucial entender que este é apenas um exemplo do que poderia acontecer no futuro, não uma representação do ecossistema atual, parcerias existentes ou resultados potenciais. As limitações da interoperabilidade e outras considerações descritas abaixo restringem significativamente as possibilidades de integração hoje. Além disso, a fragmentação da liquidez e a necessidade de usar vários tokens poderiam prejudicar a experiência do usuário, um ponto observado pelos fundadores da Akash e Bittensor.

Outros produtos descentralizados

Além da computação, vários outros serviços de infraestrutura descentralizados foram introduzidos para apoiar o emergente ecossistema de IA dentro do espaço de criptomoedas. Listar todos eles está além do escopo deste relatório, mas alguns exemplos interessantes e ilustrativos incluem:

  • Ocean: Um mercado de dados descentralizado onde os utilizadores podem criar NFTs de dados representando os seus dados e comprar usando tokens de dados. Os utilizadores podem rentabilizar os seus dados e ter maior soberania sobre eles, ao mesmo tempo que fornecem às equipas de IA acesso aos dados necessários para desenvolver e treinar modelos.
  • Grass: Um mercado descentralizado de largura de banda onde os utilizadores podem vender o seu excesso de largura de banda a empresas de IA, que a utilizam para recolher dados da internet. Construído na rede Wynd, isto permite às pessoas rentabilizar a sua largura de banda e oferece aos compradores de largura de banda uma perspetiva mais diversificada do que os utilizadores individuais veem online (uma vez que o acesso à internet individual é frequentemente personalizado com base no seu endereço IP).
  • HiveMapper: Constrói um produto de mapa descentralizado incorporando informações recolhidas de condutores diários. O HiveMapper baseia-se em IA para interpretar imagens recolhidas das câmaras dos painéis dos utilizadores e recompensa os utilizadores com tokens por ajudarem a ajustar os modelos de IA através do Feedback de Aprendizagem Humana Reforçada (RHLF).

No geral, esses exemplos apontam para as oportunidades quase ilimitadas de explorar modelos de mercado descentralizados que suportam modelos de IA ou a infraestrutura periférica necessária para desenvolvê-los. Atualmente, a maioria desses projetos está na fase de prova de conceito e requer mais pesquisas e desenvolvimento para provar que podem operar na escala necessária para fornecer serviços abrangentes de IA.

Perspetiva

Os produtos de computação descentralizada ainda estão em estágios iniciais de desenvolvimento. Eles acabaram de começar a lançar capacidades de computação de última geração, capazes de treinar os modelos de inteligência artificial mais poderosos em produção. Para ganhar uma participação de mercado significativa, eles precisam demonstrar vantagens reais sobre as alternativas centralizadas. Os gatilhos potenciais para uma adoção mais ampla incluem:

  • Fornecimento/Demanda de GPUs. A escassez de GPUs combinada com a crescente demanda de computação está a levar a uma corrida às GPUs. Devido às limitações das GPUs, a OpenAI por vezes restringiu o acesso à sua plataforma. Plataformas como Akash e Gensyn podem oferecer alternativas competitivas em termos de custo para equipas que necessitam de computação de alto desempenho. Os próximos 6-12 meses representam uma oportunidade particularmente única para os fornecedores de computação descentralizada atrair novos utilizadores que são obrigados a considerar produtos descentralizados devido à falta de acesso ao mercado mais amplo. Além disso, com o desempenho cada vez mais melhorado de modelos de código aberto como o LLaMA2 da Meta, os utilizadores já não enfrentam as mesmas barreiras ao implementar modelos eficazes ajustados, tornando os recursos de computação o principal gargalo. No entanto, a mera existência de plataformas não garante um fornecimento de computação suficiente e a demanda do consumidor correspondente. A aquisição de GPUs de alta qualidade continua a ser um desafio, e o custo nem sempre é o principal motivador da demanda. Estas plataformas enfrentarão desafios na demonstração dos benefícios reais da utilização de opções de computação descentralizada (seja devido ao custo, resistência à censura, tempo de atividade e resiliência, ou acessibilidade) para acumular utilizadores fiéis. Devem agir rapidamente, uma vez que os investimentos e construções de infraestruturas de GPUs estão a avançar a um ritmo impressionante.
  • Regulação. A regulamentação continua a ser uma barreira ao movimento da computação descentralizada. A curto prazo, a falta de uma regulamentação clara significa que tanto os prestadores como os utilizadores enfrentam riscos potenciais na utilização destes serviços. E se os fornecedores oferecerem computação ou os compradores comprarem computação sem saber de entidades sancionadas? Os usuários podem hesitar em usar plataformas descentralizadas sem controle e supervisão centralizados. Os protocolos tentam aliviar essas preocupações incorporando controles em suas plataformas ou adicionando filtros para acessar apenas provedores de computação conhecidos (ou seja, aqueles que forneceram informações Know Your Customer (KYC)), mas uma abordagem mais robusta é necessária para proteger a privacidade e, ao mesmo tempo, garantir a conformidade. No curto prazo, podemos ver o surgimento de KYC e plataformas de conformidade que restringem o acesso aos seus protocolos para resolver essas questões. Além disso, as discussões em torno de um possível novo marco regulatório nos EUA (exemplificado pela emissão da Ordem Executiva sobre a Promoção do Desenvolvimento e Uso Seguro, Confiável e Confiável de Inteligência Artificial) destacam o potencial de ações regulatórias para restringir ainda mais o acesso à GPU.
  • A censura. A regulação é uma faca de dois gumes, e os produtos de computação descentralizada poderiam beneficiar de ações que limitem o acesso à IA. Para além das ordens executivas, o fundador da OpenAI, Sam Altman, testemunhou no Congresso que os reguladores deveriam emitir licenças para o desenvolvimento de IA. As discussões sobre a regulação da IA estão apenas a começar, mas qualquer tentativa de restringir o acesso ou censurar as capacidades da IA poderia acelerar a adoção de plataformas descentralizadas que não enfrentam tais barreiras. As mudanças de liderança (ou a falta delas) na OpenAI em novembro indicam ainda mais que confiar o poder de decisão dos modelos de IA mais poderosos existentes a poucos é arriscado. Além disso, todos os modelos de IA refletem inevitavelmente os preconceitos daqueles que os criam, quer intencionalmente quer não. Uma forma de eliminar esses preconceitos é tornar os modelos o mais abertos possível para ajustes e treino, garantindo que qualquer pessoa, em qualquer lugar, possa aceder a uma variedade de modelos com diferentes preconceitos.
  • Privacidade de Dados. A computação descentralizada pode ser mais atrativa do que alternativas centralizadas quando integrada com soluções externas de dados e privacidade que ofereçam aos usuários a soberania dos dados. A Samsung tornou-se vítima quando percebeu que os engenheiros estavam a usar o ChatGPT para design de chips e a divulgar informações sensíveis para o ChatGPT. A Phala Network e a iExec afirmam fornecer aos usuários enclaves seguros SGX para proteger os dados do usuário, e a pesquisa contínua de criptografia totalmente homomórfica poderia desbloquear ainda mais a computação descentralizada assegurada pela privacidade. À medida que a IA se integra cada vez mais em nossas vidas, os usuários valorizarão cada vez mais a capacidade de executar modelos em aplicativos com proteção de privacidade. Os usuários também precisam de suporte para serviços de composição de dados, para que possam transferir dados de um modelo para outro de forma transparente.
  • Experiência do Utilizador (UX). A experiência do utilizador continua a ser uma barreira significativa à adoção mais ampla de todos os tipos de aplicações e infraestruturas cripto. Isso não é diferente para os produtos de computação descentralizada e é exacerbado em alguns casos devido aos programadores precisarem de entender tanto de criptomoedas como de IA. As melhorias precisam de começar a partir do básico, como juntar e extrair interações com a blockchain, para fornecer o mesmo resultado de alta qualidade que os líderes de mercado atuais. Isso é evidente dada a dificuldade que muitos protocolos de computação descentralizada operacionais, que oferecem produtos mais baratos, têm em ganhar uso regular.

Contratos inteligentes e zkML

Os contratos inteligentes são a pedra angular de qualquer ecossistema blockchain. Executam automaticamente sob um conjunto de condições específicas, reduzindo ou eliminando a necessidade de terceiros de confiança, permitindo assim a criação de aplicações descentralizadas complexas, como as de DeFi. No entanto, a funcionalidade dos contratos inteligentes ainda é limitada porque eles operam com base em parâmetros predefinidos que devem ser atualizados.

Por exemplo, um contrato inteligente implantado para um protocolo de empréstimo / empréstimo, que contém especificações sobre quando as posições devem ser liquidadas com base em índices de garantia específicos. Embora úteis em ambientes estáticos, esses contratos inteligentes precisam de atualizações constantes para se adaptarem a alterações na tolerância ao risco em situações dinâmicas, apresentando desafios para contratos não geridos por processos centralizados. Por exemplo, as DAOs que dependem de processos de governança descentralizada podem não reagir com rapidez suficiente aos riscos sistémicos.

Integrar inteligência artificial (ou seja, modelos de aprendizagem automática) em contratos inteligentes é uma forma potencial de melhorar funcionalidade, segurança e eficiência, ao mesmo tempo que melhora a experiência do utilizador. No entanto, essas integrações também introduzem riscos adicionais, pois é impossível garantir que os modelos subjacentes a esses contratos inteligentes não serão explorados ou falhem ao interpretar situações de cauda longa (dada a escassez de entradas de dados, as situações de cauda longa são difíceis para os modelos treinarem).

Aprendizado de Máquina de Conhecimento Zero (zkML)

A aprendizagem automática requer uma computação significativa para executar modelos complexos, tornando impraticável executar diretamente modelos de IA em contratos inteligentes devido aos altos custos. Por exemplo, um protocolo DeFi que oferece modelos de otimização de rendimento teria dificuldade em executar esses modelos on-chain sem incorrer em taxas de gás proibitivas. Uma solução é aumentar as capacidades computacionais da blockchain subjacente. No entanto, isso também aumenta os requisitos para os validadores da cadeia, comprometendo potencialmente a descentralização. Em vez disso, alguns projetos estão explorando o uso de zkML para verificar saídas de forma confiável sem a necessidade de computação intensiva on-chain.

Um exemplo comum que ilustra a utilidade do zkML é quando os usuários precisam que outros executem dados através de modelos e verifiquem se seus homólogos realmente executaram o modelo correto. Os desenvolvedores que usam provedores de computação descentralizada para treinar seus modelos podem se preocupar com esses provedores cortando custos usando modelos mais baratos que produzem saídas com diferenças quase impercetíveis. O zkML permite que os provedores de computação executem dados através de seus modelos e, em seguida, gerem provas que podem ser verificadas on-chain, provando que as saídas do modelo para determinadas entradas estão corretas. Neste cenário, o fornecedor do modelo ganha a vantagem adicional de poder oferecer o seu modelo sem revelar os pesos subjacentes que produziram os resultados.

O oposto também é possível. Se os utilizadores quiserem executar modelos nos seus dados, mas não quiserem dar acesso aos projetos de modelo aos seus dados devido a preocupações com a privacidade (por exemplo, em verificações médicas ou informações comerciais proprietárias), podem executar o modelo nos seus dados sem partilhar os dados e depois verificar através de provas que executaram o modelo correto. Estas possibilidades expandem significativamente o espaço de design para integrar funcionalidades de IA e contratos inteligentes, abordando desafios computacionais assustadores.

Infraestrutura e ferramentas

Dado o estado inicial do campo zkML, o desenvolvimento está principalmente focado na construção da infraestrutura e das ferramentas de que as equipas precisam para converter os seus modelos e resultados em provas verificáveis na cadeia. Estes produtos abstraem o máximo possível os aspectos de conhecimento zero.

EZKL e Gizé são dois projetos que constroem essas ferramentas fornecendo provas verificáveis da execução do modelo de aprendizado de máquina. Ambos ajudam as equipes a construir modelos de aprendizado de máquina para garantir que esses modelos possam ser executados de uma maneira que permita que os resultados sejam verificados on-chain de forma confiável. Ambos os projetos usam Open Neural Network Exchange (ONNX) para converter modelos de aprendizado de máquina escritos em linguagens comuns como TensorFlow e Pytorch em um formato padrão. Em seguida, eles produzem versões desses modelos que também geram provas zk após a execução. EZKL é open-source, produzindo zk-SNARKs, enquanto Giza é de código fechado, produzindo zk-STARKs. Ambos os projetos são atualmente compatíveis apenas com EVM.

Nos últimos meses, a EZKL fez progressos significativos na melhoria das soluções zkML, concentrando-se principalmente na redução de custos, melhoria da segurança e aceleração da geração de provas. Por exemplo, em novembro de 2023, a EZKL integrou uma nova biblioteca de GPU de código aberto que reduziu o tempo de prova de agregação em 35%; em janeiro, a EZKL lançou o Lilith, uma solução de software para integrar clusters de computação de alto desempenho e orquestrar sistemas de trabalho simultâneos ao usar provas EZKL. A singularidade do Giza reside em fornecer ferramentas para criar modelos de aprendizado de máquina verificáveis e planejar a implementação de um equivalente web3 da Hugging Face, abrindo um mercado de usuários para colaboração zkML e compartilhamento de modelos, e eventualmente integrando produtos de computação descentralizada. Em janeiro, a EZKL publicou uma avaliação de benchmark comparando o desempenho da EZKL, Giza e RiscZero (conforme descrito abaixo), demonstrando tempos de prova mais rápidos e uso de memória.

A Modulus Labs está a desenvolver atualmente uma nova tecnologia de prova de conhecimento zero (zk) especificamente adaptada para modelos de IA. A Modulus lançou um artigo intitulado "Custo Inteligente", que implica que a execução de modelos de IA em cadeia incorre em custos proibitivamente elevados. Este artigo, publicado em janeiro de 2023, compara os sistemas de prova zk existentes para identificar melhorias na capacidade de prova zk e gargalos dentro de modelos de IA. Revela que os produtos atuais são demasiado caros e ineficientes para aplicações de IA em grande escala. Aproveitando a pesquisa inicial, a Modulus lançou o Remainder em novembro, um provador zk especializado destinado a reduzir o custo e o tempo de prova para modelos de IA, tornando os projetos economicamente viáveis para integração em grande escala em contratos inteligentes. O seu trabalho é proprietário, o que torna impossível a comparação com as soluções mencionadas, mas foi recentemente citado no post do blog de Vitalik sobre criptografia e inteligência artificial.

O desenvolvimento de ferramentas e infraestruturas é crucial para o crescimento futuro do espaço zkML, pois pode reduzir significativamente o atrito envolvido na implementação de computações off-chain verificáveis e na necessidade de equipas zk. A criação de interfaces seguras para praticantes de aprendizado de máquina não nativos de cripto trazerem seus modelos on-chain permitirá que as aplicações experimentem casos de uso verdadeiramente inovadores. Além disso, essas ferramentas abordam uma grande barreira para a adoção mais ampla do zkML: a falta de desenvolvedores conhecedores interessados em trabalhar na interseção de conhecimento zero, aprendizado de máquina e criptografia.

Coprocessor

Outras soluções em desenvolvimento, referidas como “coprocessadores” (incluindo RiscZero, Axiom e Ritual), desempenham vários papéis, incluindo a verificação de cálculos off-chain on-chain. Tal como EZKL, Giza e Modulus, o seu objetivo é abstrair completamente o processo de geração de prova zk, criando máquinas virtuais de conhecimento zero capazes de executar programas off-chain e gerar provas verificáveis on-chain. RiscZero e Axiom atendem a modelos de IA simples como coprocessadores mais gerais, enquanto o Ritual é construído especificamente para uso com modelos de IA.

A primeira instância do Ritual, Infernet, inclui um Infernet SDK que permite aos desenvolvedores enviar pedidos de inferência para a rede e receber resultados e provas opcionais em troca. Os nós do Infernet processam esses cálculos fora da cadeia antes de devolverem os resultados. Por exemplo, um DAO poderia estabelecer um processo que garanta que todas as novas propostas de governança cumpram certos requisitos antes de serem submetidas. Sempre que uma nova proposta é submetida, o contrato de governança desencadeia um pedido de inferência através do Infernet, invocando um modelo de IA treinado especificamente para a governança do DAO. Este modelo analisa a proposta para garantir que todos os padrões necessários sejam cumpridos e devolve resultados e evidências para aprovar ou rejeitar a submissão da proposta.

Durante o próximo ano, a equipa da Ritual planeia introduzir mais funcionalidades, formando uma camada de infraestrutura conhecida como a supercadeia Ritual. Muitos dos projetos discutidos poderiam ser integrados como fornecedores de serviços na Ritual. A equipa da Ritual já se integrou com a EZKL para a geração de provas e em breve poderá adicionar funcionalidades de outros principais fornecedores. Os nós do Infernet na Ritual também poderiam utilizar GPUs da Akash ou io.net e modelos de consulta treinados na sub-rede Bittensor. O seu objetivo final é tornar-se o fornecedor preferido de infraestrutura de IA aberta, oferecendo serviços para aprendizagem automática e outras tarefas relacionadas com IA para qualquer rede e qualquer carga de trabalho.

Aplicações

zkML está a ajudar na reconciliação da dicotomia entre blockchain, que é inerentemente limitada em recursos, e inteligência artificial, que exige recursos computacionais e de dados significativos. Como um fundador da Giza coloca, "os casos de uso são incrivelmente ricos... É um pouco como perguntar quais eram os casos de uso para contratos inteligentes nos primeiros dias do Ethereum... O que estamos a fazer é simplesmente expandir os casos de uso para contratos inteligentes." No entanto, como observado, o desenvolvimento atual está a acontecer predominantemente ao nível da ferramenta e infraestrutura. As aplicações ainda estão na fase exploratória, com as equipas a enfrentar o desafio de provar que o valor gerado pela implementação de modelos com zkML supera a sua complexidade e custo.

As aplicações atuais incluem:

  • Finanças Descentralizadas (DeFi). zkML melhora as capacidades dos contratos inteligentes, atualizando o espaço de design para DeFi. Os protocolos DeFi oferecem uma riqueza de dados verificáveis e imutáveis para modelos de aprendizado de máquina utilizarem na geração de estratégias de rendimento ou negociação, análise de risco, experiência do usuário, etc. Por exemplo, a Giza colaborou com a Yearn Finance para construir um mecanismo automático de avaliação de risco de prova de conceito para os novos cofres v3 da Yearn. A Modulus Labs está trabalhando com a Lyra Finance para integrar o aprendizado de máquina em seu AMM, com o Ion Protocol para implementar modelos para analisar os riscos dos validadores e ajudar a Upshot na validação de suas informações de preços NFT suportadas por IA. Protocolos como NOYA (usando EZKL) e Mozaic fornecem acesso a modelos off-chain proprietários, permitindo que os usuários acessem a mineração de liquidez automatizada enquanto validam entradas e provas de dados on-chain. A Spectral Finance está desenvolvendo um mecanismo de pontuação de crédito on-chain para prever a probabilidade de os mutuários Compound ou Aave ficarem inadimplentes nos empréstimos. Devido ao zkML, estes chamados produtos "De-Ai-Fi" provavelmente se tornarão cada vez mais populares nos próximos anos.
  • Jogos. Os jogos têm sido considerados há muito tempo para perturbação e aprimoramento através de blockchains públicos. O zkML permite jogos de inteligência artificial on-chain. A Modulus Labs realizou uma prova de conceito para jogos on-chain simples. "Leela vs the World" é um jogo de xadrez baseado na teoria dos jogos, onde os usuários competem contra um modelo de xadrez de IA, com o zkML verificando cada movimento que Leela faz com base no modelo em execução do jogo. Da mesma forma, as equipes estão usando o framework EZKL para construir competições de canto simples e jogos de tic-tac-toe on-chain. A Cartridge está usando o Giza para permitir que as equipes implantem jogos totalmente on-chain, destacando recentemente um jogo de direção de IA simples onde os usuários podem competir para criar melhores modelos para carros tentando evitar obstáculos. Embora simples, essas provas de conceito apontam para implementações futuras capazes de verificação mais complexa on-chain, como atores de NPC complexos que podem interagir com economias in-game, como visto em "AI Arena", um jogo de Super Smash Brothers onde os jogadores podem treinar seus guerreiros e então implantá-los como modelos de IA para lutar.
  • Identidade, Proveniência e Privacidade. As criptomoedas têm sido utilizadas para verificar autenticidade e combater o crescente problema de conteúdo gerado/manipulado por IA e deep fakes. zkML pode avançar nesses esforços. O WorldCoin é uma solução de verificação de identidade que exige que os utilizadores digitalizem as suas íris para gerar um ID único. No futuro, IDs biométricos poderiam ser armazenados nos dispositivos pessoais dos utilizadores usando encriptação e verificados usando modelos que funcionam localmente. Os utilizadores poderiam então fornecer evidências biométricas sem revelar as suas identidades, defendendo-se assim contra ataques Sybil, garantindo ao mesmo tempo a privacidade. Isso poderia também aplicar-se a outras inferências que requerem privacidade, como usar modelos para analisar dados/imagens médicas para deteção de doenças, verificar personalidades e desenvolver algoritmos de correspondência em aplicações de encontros, ou instituições de seguros e empréstimos que necessitam de verificar informações financeiras.

Perspetivas

O zkML permanece experimental, com a maioria dos projetos focando na construção de primitivas de infraestrutura e provas de conceito. Os desafios atuais incluem custos computacionais, limitações de memória, complexidade do modelo, ferramentas e infraestrutura limitadas e talento para desenvolvedores. Em suma, há um trabalho considerável a ser feito antes que o zkML possa ser implementado na escala exigida pelos produtos de consumo.

No entanto, à medida que o campo amadurece e essas limitações são abordadas, o zkML se tornará um componente chave na integração da inteligência artificial com a criptografia. Essencialmente, o zkML promete trazer qualquer escala de computação off-chain on-chain, mantendo as mesmas ou similares garantias de segurança que a execução on-chain. No entanto, antes que essa visão seja realizada, os primeiros adeptos da tecnologia continuarão a ter que equilibrar a privacidade e segurança do zkML contra a eficiência das alternativas.

Agentes de Inteligência Artificial

Agentes de Inteligência Artificial

Uma das integrações mais emocionantes de inteligência artificial e criptomoeda é o experimento em andamento com agentes de inteligência artificial. Os agentes são robôs autônomos capazes de receber, interpretar e executar tarefas usando modelos de IA. Isso poderia variar desde ter um assistente pessoal disponível o tempo todo, ajustado às suas preferências, até contratar um agente financeiro para gerenciar e ajustar sua carteira de investimentos com base em suas preferências de risco.

Dado que a criptomoeda oferece uma infraestrutura de pagamento sem permissão e sem confiança, os agentes e a criptomoeda podem ser bem integrados. Uma vez treinados, os agentes terão uma carteira, permitindo que realizem transações por conta própria usando contratos inteligentes. Por exemplo, os agentes de hoje podem coletar informações na internet e, em seguida, negociar em mercados de previsão com base em modelos.

Agent Providers

Morpheus é um dos mais recentes projetos de agente de código aberto lançados em 2024 na Ethereum e Arbitrum. Seu white paper foi publicado de forma anônima em setembro de 2023, fornecendo uma base para a formação e construção da comunidade, incluindo figuras proeminentes como Erik Vorhees. O white paper inclui um protocolo de agente inteligente para download, um LLM de código aberto que pode ser executado localmente, gerenciado pela carteira do usuário e interagir com contratos inteligentes. Ele usa classificações de contratos inteligentes para ajudar os agentes a determinar com segurança quais contratos inteligentes podem interagir com base em critérios como o número de transações processadas.

O white paper também fornece um quadro para construir a rede Morpheus, incluindo as estruturas de incentivo e infraestrutura necessárias para executar o protocolo do agente inteligente. Isso inclui incentivos para os contribuintes construírem interfaces para interagir com agentes, APIs para os desenvolvedores construírem agentes plug-in para interação mútua e soluções de nuvem para os usuários acessarem a computação e armazenamento necessários para executar agentes em dispositivos de borda. O financiamento inicial do projeto foi lançado no início de fevereiro, com o protocolo completo previsto para ser lançado no segundo trimestre de 2024.

Decentralized Autonomous Infrastructure Network (DAIN) é um novo protocolo de infraestrutura de agentes que constrói uma economia de agente para agente na Solana. O objetivo da DAIN é permitir que agentes de diferentes empresas interajam facilmente entre si através de uma API comum, abrindo significativamente o espaço de design para agentes de IA, focando em agentes que podem interagir com produtos web2 e web3. Em janeiro, a DAIN anunciou sua primeira parceria com a Asset Shield, permitindo aos utilizadores adicionar "assinantes de agentes" às suas multisigs, capazes de interpretar transações e aprovar/rejeitar com base em regras definidas pelo utilizador.

Fetch.AI é um dos protocolos de agentes de IA implantados mais cedo e desenvolveu um ecossistema para construir, implantar e usar agentes on-chain usando tokens FET e carteiras Fetch.AI. O protocolo oferece um conjunto abrangente de ferramentas e aplicações para usar agentes, incluindo funções de carteira para interagir com e ordenar agentes.

A Autonolas, fundada por ex-membros da equipa da Fetch, é um mercado aberto para criar e usar agentes de IA descentralizados. A Autonolas também fornece um conjunto de ferramentas para os desenvolvedores construírem agentes de IA hospedados off-chain que podem conectar-se a várias blockchains, incluindo Polygon, Ethereum, Gnosis Chain e Solana. Atualmente, eles têm alguns produtos de prova de conceito de agentes ativos, incluindo para mercados preditivos e governação de DAO.

A SingularityNet está a construir um mercado descentralizado para agentes de IA, onde agentes de IA especializados podem ser implantados, que podem ser contratados por outros agentes para realizar tarefas complexas. Outras empresas como a AlteredStateMachine estão a construir integrações de agentes de IA com NFTs. Os utilizadores criam NFTs com atributos aleatórios, que lhes conferem vantagens e desvantagens em diferentes tarefas. Estes agentes podem então ser treinados para melhorar certos atributos para uso em jogos, DeFi, ou como assistentes virtuais e serem negociados com outros utilizadores.

No geral, esses projetos vislumbram um futuro ecossistema de agentes capazes de trabalhar em colaboração não apenas para realizar tarefas, mas também para ajudar a construir inteligência artificial geral. Agentes verdadeiramente complexos terão a capacidade de completar autonomamente qualquer tarefa do usuário. Por exemplo, agentes totalmente autônomos serão capazes de descobrir como contratar outro agente para integrar uma API e depois executar uma tarefa sem ter que garantir que o agente já tenha integrado com APIs externas (como sites de reserva de viagens) antes de usar. Do ponto de vista do usuário, não há necessidade de verificar se um agente pode completar uma tarefa, pois o agente pode determinar isso por si próprio.

Bitcoin e Agentes de IA

Em julho de 2023, a Lightning Labs lançou uma implementação de prova de conceito para utilizar agentes na Lightning Network, apelidada de suite Bitcoin pela LangChain. Este produto é particularmente intrigante porque visa resolver um problema que está a tornar-se cada vez mais grave no mundo da Web 2 - as chaves de API fechadas e dispendiosas das aplicações web.

O LangChain aborda este problema, fornecendo aos desenvolvedores um conjunto de ferramentas que permitem aos agentes comprar, vender e manter Bitcoin, bem como consultar chaves API e enviar micropagamentos. Nas vias de pagamento tradicionais, os micropagamentos são proibitivamente caros devido às taxas, mas na Lightning Network, os agentes podem enviar um número ilimitado de micropagamentos diariamente a um custo mínimo. Quando usado em conjunto com o framework da API de medição de pagamento L402 da LangChain, as empresas podem ajustar os custos de acesso de suas APIs com base em aumentos e diminuições no uso, em vez de definir um padrão único e caro.

No futuro, as atividades de cadeia serão predominantemente impulsionadas por interações entre agentes e agentes, exigindo mecanismos para garantir que os agentes possam interagir entre si sem custos proibitivos. Este exemplo inicial demonstra o potencial de usar agentes em trilhos de pagamento sem permissão e economicamente eficientes, abrindo possibilidades para novos mercados e interações econômicas.

Perspetiva

O campo dos agentes ainda está em sua infância. Os projetos apenas começaram a lançar agentes funcionais capazes de lidar com tarefas simples—o acesso normalmente é limitado a desenvolvedores e usuários experientes. No entanto, ao longo do tempo, um dos impactos mais significativos dos agentes de inteligência artificial na criptomoeda será a melhoria da experiência do usuário em todas as verticais. As transações começarão a mudar de baseadas em cliques para baseadas em texto, permitindo que os usuários interajam com agentes on-chain por meio de interfaces conversacionais. Equipes como Dawn Wallet já lançaram carteiras de chatbot, permitindo que os usuários interajam on-chain.

Além disso, permanece incerto como os agentes irão operar na Web 2, já que os trilhos financeiros dependem de instituições bancárias regulamentadas que não podem operar 24 horas por dia, 7 dias por semana ou facilitar transações transfronteiriças sem problemas. Como Lyn Alden destacou, a falta de reembolsos e a capacidade de lidar com microtransações tornam os trilhos de criptomoeda particularmente atraentes em comparação com cartões de crédito. No entanto, se os agentes se tornarem um meio mais comum para transações, é provável que os provedores de pagamento e aplicativos existentes se adaptem rapidamente, implementando a infraestrutura necessária para operar nos trilhos financeiros existentes, diminuindo assim alguns benefícios de usar criptomoeda.

Atualmente, os agentes podem estar limitados a transações de criptomoeda determinísticas, onde uma entrada dada garante uma saída dada. Ambos os modelos delinearam a capacidade desses agentes de descobrir como realizar tarefas complexas, e as ferramentas estão expandindo o leque de tarefas que podem concluir, ambas as quais requerem um desenvolvimento adicional. Para que os agentes de cripto se tornem úteis além de casos de uso de criptomoeda em cadeia, é necessária uma integração e aceitação mais amplas da criptomoeda como forma de pagamento, juntamente com clareza regulatória. No entanto, à medida que esses componentes se desenvolvem, os agentes estão prontos para se tornar um dos maiores consumidores de computação descentralizada e soluções zkML, recebendo e resolvendo autonomamente qualquer tarefa de forma não determinística.

Conclusão

A IA introduz as mesmas inovações na criptomoeda que vimos no web2, melhorando tudo, desde o desenvolvimento de infraestruturas até a experiência do usuário e acessibilidade. No entanto, os projetos ainda estão nos estágios iniciais de desenvolvimento e a integração de criptomoeda e IA a curto prazo será principalmente impulsionada por integrações fora da cadeia.

Produtos como Copilot estão definidos para "aumentar a eficiência do desenvolvedor em 10 vezes," e as aplicações de Layer 1 e DeFi já lançaram plataformas de desenvolvimento assistido por IA em colaboração com grandes empresas como a Microsoft. Empresas como Cub3.ai e Test Machine estão desenvolvendo integrações de IA para auditoria de contratos inteligentes e monitoramento de ameaças em tempo real para aprimorar a segurança on-chain. Os chatbots LLM estão sendo treinados com dados on-chain, documentação de protocolo e aplicações para fornecer aos usuários uma acessibilidade e experiência do usuário aprimoradas.

O desafio para integrações mais avançadas que realmente aproveitam a tecnologia subjacente das criptomoedas continua a ser provar que implementar soluções de IA on-chain é tecnicamente e economicamente viável. O desenvolvimento de computação descentralizada, zkML e agentes de IA aponta para verticais promissores que lançam as bases para um futuro profundamente interligado de criptomoeda e IA.

Aviso legal:

  1. Este artigo foi reproduzido a partir de techflow, Todos os direitos autorais pertencem ao autor original [Lucas Tcheyan]. Se houver objeções a esta reimpressão, entre em contato com o Gate Learnequipa, e eles vão lidar com isso prontamente.
  2. Aviso de responsabilidade: As visões e opiniões expressas neste artigo são exclusivamente as do autor e não constituem qualquer conselho de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipa Gate Learn. Salvo indicação em contrário, é proibido copiar, distribuir ou plagiar os artigos traduzidos.

Galaxy Digital: Explorando a Interseção da Criptomoeda e IA

Intermediário2/28/2024, 4:55:32 AM
Este artigo explora a interseção da criptomoeda e da inteligência artificial, destacando o surgimento das blockchains públicas como um dos avanços mais profundos na história da ciência da computação. Discute como o desenvolvimento da IA já está tendo um impacto significativo em nosso mundo.

Introdução

O surgimento de blockchains públicos marca um avanço profundo na história da ciência da computação, enquanto o desenvolvimento da inteligência artificial está a ter um impacto significativo no nosso mundo. A tecnologia blockchain oferece novos modelos para a liquidação de transações, armazenamento de dados e design de sistemas, enquanto a inteligência artificial representa uma revolução na computação, análise e entrega de conteúdo. As inovações nestas indústrias estão a desencadear novos casos de uso que poderiam acelerar a adoção de ambos os setores nos próximos anos. Este relatório examina a integração em curso da criptomoeda e da inteligência artificial, focando em novos casos de uso que visam aproximar as duas áreas e aproveitar as suas potencialidades. Especificamente, analisa projetos que desenvolvem protocolos de computação descentralizada, infraestrutura de aprendizagem de máquina de conhecimento zero (zkML) e agentes de IA.

As criptomoedas oferecem uma camada de liquidação permissionless, trustless e componível para a IA, desbloqueando casos de uso como acesso mais fácil às hardware através de sistemas de computação descentralizados, construindo agentes de IA capazes de executar tarefas complexas que exigem troca de valor, e desenvolvendo soluções de identidade e proveniência para combater ataques Sybil e deepfakes. A IA traz à criptomoeda muitos dos mesmos benefícios vistos na Web 2.0, incluindo experiências aprimoradas do usuário e do desenvolvedor através de grandes modelos de linguagem como ChatGPT e Copilot, e potencial significativamente melhorado de funcionalidade e automação para contratos inteligentes. O blockchain fornece o ambiente transparente e rico em dados necessário para a IA, embora o poder de computação limitado do blockchain seja uma grande barreira para a integração direta de modelos de IA.

As experiências e a eventual adoção na interseção da criptomoeda e da IA são impulsionadas pelas mesmas forças que impulsionam os casos de uso mais promissores para a criptomoeda: acesso a uma camada de coordenação sem permissão e sem confiança, facilitando uma transferência de valor melhor. Dado o vasto potencial, os intervenientes neste campo precisam de compreender as formas fundamentais como estas tecnologias se intersectam.

Pontos-chave:

    • Num futuro próximo (de 6 meses a 1 ano), a integração de criptomoeda e IA será dominada por aplicações de IA que melhoram a eficiência dos programadores, a auditabilidade e segurança de contratos inteligentes, e a acessibilidade dos utilizadores. Estas integrações não são específicas para criptomoeda, mas melhoram a experiência para os programadores e utilizadores on-chain.
    • À medida que as GPUs de alto desempenho continuam escassas, os produtos de computação descentralizada estão a implementar produtos GPU personalizados para IA para impulsionar a adoção.
    • A experiência do utilizador e os obstáculos regulamentares continuam a ser obstáculos à atração de clientes de computação descentralizada. No entanto, os desenvolvimentos recentes da OpenAI e as análises regulamentares em curso nos EUA destacam a proposta de valor das redes de IA descentralizadas, sem permissão, resistentes à censura e descentralizadas.
    • A integração de IA on-chain, especialmente contratos inteligentes capazes de utilizar modelos de IA, requer melhorias na tecnologia zkML e outros métodos para verificar cálculos off-chain. A falta de ferramentas abrangentes, talento de desenvolvedor e altos custos são barreiras à adoção.
    • Os agentes de IA são bem adequados para criptomoedas, onde os usuários (ou os próprios agentes) podem criar carteiras para transacionar com outros serviços, agentes ou indivíduos - uma capacidade impossível com os sistemas financeiros tradicionais. É necessária uma integração adicional com produtos não cripto para uma adoção mais ampla.

Termos

A inteligência artificial é a utilização de computação e máquinas para imitar as capacidades de raciocínio e resolução de problemas dos seres humanos.

As redes neurais são um método de treino de modelos de inteligência artificial. Elas processam entradas através de camadas algorítmicas discretas, refinando-as até que a saída desejada seja produzida. As redes neurais consistem em equações com pesos que podem ser ajustados para alterar a saída. Podem requerer dados extensivos e computação para o treino, a fim de garantir saídas precisas. Esta é uma das formas mais comuns de desenvolver modelos de IA (por exemplo, o ChatGPT baseia-se num processo de rede neural com base em Transformers).

O treino é o processo de desenvolvimento de redes neurais e outros modelos de IA. Requer uma quantidade significativa de dados para treinar os modelos a interpretar corretamente as entradas e produzir saídas precisas. Durante o treino, os pesos da equação do modelo são continuamente modificados até que uma saída satisfatória seja produzida. O treino pode ser muito dispendioso. Por exemplo, o ChatGPT usa dezenas de milhares das suas próprias GPUs para processar dados. Equipas com menos recursos frequentemente dependem de fornecedores de computação especializados, como Amazon Web Services, Azure e Google Cloud providers.

A inferência é a utilização real de modelos de IA para obter saídas ou resultados (por exemplo, utilizando o ChatGPT para criar um esboço para um artigo sobre a interseção de criptomoeda e IA). A inferência é usada ao longo do processo de treino e no produto final. Devido aos custos computacionais, mesmo após o treino estar completo, os custos operacionais podem ser elevados, embora a sua intensidade computacional seja menor do que no treino.

As Provas de Conhecimento Zero (ZKP) permitem a verificação de declarações sem revelar informações subjacentes. Isto é útil em criptomoeda por duas razões principais: 1) Privacidade e 2) Dimensionamento. Para a privacidade, possibilita aos utilizadores efetuar transações sem revelar informações sensíveis (por exemplo, quanto ETH está numa carteira). Para o dimensionamento, permite que os cálculos off-chain sejam provados on-chain mais rapidamente do que reexecutar os cálculos. Isto permite que blockchains e aplicações executem cálculos de forma barata off-chain e depois os verifiquem on-chain. Para mais informações sobre o conhecimento zero e o seu papel nas Máquinas Virtuais Ethereum, consulte o relatório de Christine Kim sobre zkEVMs: O Futuro da Escalabilidade do Ethereum.

Mapa do Mercado de IA/Criptomoeda

Projetos que integram inteligência artificial e criptomoeda ainda estão a construir a infraestrutura subjacente necessária para suportar interações de IA on-chain em grande escala.

Mercados de computação descentralizada estão surgindo para fornecer o vasto hardware físico necessário para treinar e inferir modelos de IA, principalmente na forma de Unidades de Processamento Gráfico (GPUs). Estes mercados de dois lados conectam aqueles que alugam e procuram alugar computação, facilitando a transferência de valor e a verificação de cálculos. Dentro da computação descentralizada, várias subcategorias que oferecem funcionalidades adicionais estão surgindo. Além de mercados bilaterais, este relatório também analisa fornecedores de treinamento de aprendizado de máquina que oferecem treinamento verificável e ajuste fino de saídas, bem como projetos dedicados a vincular computação e geração de modelos para permitir IA, frequentemente referidos como redes de incentivo inteligentes.

zkML é uma área de foco emergente para projetos que visam fornecer saídas de modelo verificáveis on-chain de forma economicamente viável e oportuna. Esses projetos possibilitam principalmente que aplicações lidem com solicitações computacionais pesadas off-chain, para depois publicar saídas verificáveis on-chain, provando que a carga de trabalho off-chain estava completa e precisa. Atualmente, zkML é tanto caro quanto demorado, mas está sendo cada vez mais utilizado como uma solução. Isso é evidente no crescente número de integrações entre fornecedores de zkML e aplicações DeFi/jogos que desejam aproveitar modelos de IA.

A ampla oferta de computação e a capacidade de verificar a computação on-chain abrem a porta para agentes de IA on-chain. Os agentes são modelos treinados capazes de executar pedidos em nome dos usuários. Os agentes oferecem a oportunidade de melhorar significativamente a experiência on-chain, permitindo aos usuários executar transações complexas simplesmente conversando com um chatbot. No entanto, até o momento, os projetos de agentes ainda estão focados no desenvolvimento da infraestrutura e ferramentas para implantação fácil e rápida.

Computação Descentralizada

Visão geral

A inteligência artificial requer uma extensa computação para treinar modelos e executar inferências. Na última década, à medida que os modelos se tornaram cada vez mais complexos, a demanda por computação cresceu exponencialmente. Por exemplo, a OpenAI observou que de 2012 a 2018, a demanda computacional de seus modelos dobrava a cada dois anos, passando a dobrar a cada três meses e meio. Isso levou a um aumento na demanda por GPUs, com alguns mineradores de criptomoedas até mesmo reutilizando suas GPUs para fornecer serviços de computação em nuvem. À medida que a competição pelo acesso computacional se intensifica e os custos aumentam, alguns projetos estão aproveitando a tecnologia criptográfica para oferecer soluções de computação descentralizada. Eles fornecem computação sob demanda a preços competitivos, permitindo que equipes treinem e executem modelos de forma acessível. Em alguns casos, os trade-offs podem envolver desempenho e segurança.

A procura por GPUs de última geração (por exemplo, as produzidas pela Nvidia) é significativa. Em setembro, a Tether adquiriu uma participação na empresa alemã de mineração de bitcoins Northern Data, alegadamente gastando $420 milhões para adquirir 10.000 GPUs H100 (uma das GPUs mais avançadas para treino de IA). O tempo de espera para adquirir hardware de primeira linha pode ser de pelo menos seis meses, se não mais em muitos casos. Além disso, as empresas muitas vezes são obrigadas a assinar contratos de longo prazo para garantir volumes computacionais que talvez nem usem. Isso pode levar a situações em que os recursos computacionais estão disponíveis, mas não acessíveis no mercado. Os sistemas de computação descentralizada ajudam a resolver essas ineficiências de mercado, criando um mercado secundário onde os proprietários de computação podem imediatamente sublocar sua capacidade excedente após notificação, liberando assim novo abastecimento.

Além da competitividade de preços e acessibilidade, uma proposta de valor-chave da computação descentralizada é a resistência à censura. O desenvolvimento de IA de ponta está cada vez mais dominado por grandes empresas de tecnologia com capacidades incomparáveis de acesso computacional e de dados. O primeiro tema-chave destacado no Relatório Anual do Índice de IA de 2023 foi a crescente ultrapassagem da academia pela indústria no desenvolvimento de modelos de IA, concentrando o controle nas mãos de alguns líderes tecnológicos. Isso levanta preocupações sobre o potencial deles em exercer uma influência significativa na definição das normas e valores que sustentam os modelos de IA, especialmente depois que essas empresas de tecnologia pressionam por regulamentações para limitar o desenvolvimento de IA incontrolável.

Verticals in Computação Descentralizada

Vários modelos de computação descentralizada surgiram nos últimos anos, cada um com seu próprio foco e compensações.

Computação generalizada

De uma forma geral, projetos como Akash, io.net, iExec e Cudos são aplicações de computação descentralizada, oferecendo além de dados e soluções computacionais gerais, acesso a computação especializada para treinamento e inferência de IA. Akash se destaca como a única plataforma de 'super nuvem' totalmente open-source, utilizando o Cosmos SDK para sua rede de prova de participação. AKT, o token nativo da Akash, serve como um método de pagamento para garantir a rede e incentivar a participação. Lançada em 2020, a mainnet da Akash inicialmente focou em um mercado de computação em nuvem sem permissão, oferecendo serviços de armazenamento e locação de CPU. Em junho de 2023, a Akash introduziu um testnet centrado em GPU, seguido por um lançamento de mainnet em GPU em setembro, permitindo aluguéis de GPU para treinamento e inferência de IA.

O ecossistema Akash é composto por dois participantes principais: inquilinos, que procuram recursos de computação, e fornecedores, os fornecedores de computação. Um processo de leilão reverso facilita a correspondência entre inquilinos e fornecedores, onde os inquilinos publicam seus requisitos de computação, incluindo localizações de servidores preferenciais ou tipos de hardware e seu orçamento. Os fornecedores então fazem ofertas, sendo o licitante mais baixo premiado com a tarefa. Os validadores mantêm a integridade da rede, com um limite atual de 100 validadores, planejado para aumentar ao longo do tempo. A participação como validador está aberta a quem apostar mais AKT do que o validador atual com a menor aposta. Os detentores de AKT podem delegar seus tokens aos validadores, com taxas de transação e recompensas de bloco distribuídas em AKT. Além disso, para cada locação, a rede Akash ganha uma “taxa de participação,” decidida pela comunidade, distribuída aos detentores de AKT.

Mercado secundário

O mercado secundário para computação descentralizada visa resolver ineficiências no mercado computacional existente, onde restrições de oferta levam as empresas a acumular recursos além de suas necessidades e contratos de longo prazo com fornecedores de nuvem limitam ainda mais a oferta. As plataformas de computação descentralizada desbloqueiam novas ofertas, permitindo que qualquer pessoa com necessidades computacionais se torne um fornecedor.

Se a explosão na procura de GPUs para treino de IA se traduzirá em utilização sustentada da rede na Akash, ainda está por ver. Historicamente, a Akash ofereceu serviços de mercado baseados em CPU com um desconto de 70-80% em comparação com alternativas centralizadas, no entanto, esta estratégia de preços não impulsionou significativamente a adoção. A atividade da rede, medida por arrendamentos ativos, estabilizou, com uma média de 33% de utilização de computação, 16% de memória e 13% de armazenamento até ao segundo trimestre de 2023, impressionante para a adoção on-chain, mas indicativo de uma oferta ainda a superar a procura. Meio ano após o lançamento da rede de GPU, é demasiado cedo para uma avaliação definitiva da adoção a longo prazo, embora os primeiros sinais mostrem uma utilização média de GPU de 44%, impulsionada principalmente pela procura de GPUs de alta qualidade como o A100, mais de 90% dos quais foram alugados.

As despesas diárias da Akash quase dobraram desde a introdução das GPUs, atribuídas em parte ao aumento do uso de outros serviços, especialmente CPUs, mas principalmente devido ao novo uso de GPU.

Os preços são competitivos com, ou em alguns casos mais caros do que, concorrentes centralizados como Lambda Cloud e Vast.ai. A alta procura por GPUs de ponta, como o H100 e A100, significa que a maioria dos proprietários desse equipamento não está interessada em listá-los num mercado com preços competitivos.

Apesar dos lucros iniciais, as barreiras à adoção permanecem. As redes de computação descentralizadas devem dar mais passos para gerar demanda e oferta, com equipes explorando a melhor forma de atrair novos usuários. Por exemplo, no início de 2024, a Akash aprovou a Proposta 240, aumentando a emissão do AKT para os fornecedores de GPU para incentivar mais oferta, especialmente para GPUs de alta qualidade. As equipes também estão trabalhando em modelos de prova de conceito para demonstrar as capacidades ao vivo de suas redes aos potenciais usuários. A Akash está treinando seus modelos fundamentais e lançou produtos de geração de chatbot e imagem que utilizam as GPUs da Akash. Da mesma forma, a io.net desenvolveu um modelo de difusão estável e está lançando novas funcionalidades de rede para melhorar a emulação do desempenho e escala da rede.

Treino descentralizado de aprendizagem de máquinas

Para além das plataformas de computação geral que podem satisfazer as exigências da inteligência artificial, está também a surgir um grupo de fornecedores profissionais de GPU de IA focados na formação de modelos de aprendizagem automática. Por exemplo, a Gensyn está a "coordenar energia e hardware para construir inteligência coletiva," com a filosofia de que "se alguém quer treinar algo e alguém está disposto a treiná-lo, então esse treino deve ser permitido acontecer."

Este protocolo envolve quatro participantes principais: submetedores, solucionadores, validadores e denunciantes. Os submetedores enviam tarefas com pedidos de treino para a rede. Estas tarefas incluem os objetivos de treino, os modelos a serem treinados e os dados de treino. Como parte do processo de submissão, os submetedores precisam fazer um pré-pagamento do custo computacional estimado necessário pelos solucionadores.

Após a submissão, as tarefas são atribuídas aos solucionadores que efetivamente realizam o treinamento do modelo. Em seguida, os solucionadores submetem as tarefas concluídas aos validadores, que são responsáveis por verificar o treinamento para garantir que foi concluído corretamente. Os denunciantes têm a tarefa de garantir que os validadores atuem honestamente. Para motivar os denunciantes a participar na rede, a Gensyn planeia oferecer regularmente provas deliberadamente incorretas, recompensando os denunciantes que as detetam.

Para além de fornecer cálculos para cargas de trabalho relacionadas com IA, uma proposta de valor chave do Gensyn é o seu sistema de verificação, que ainda está em desenvolvimento. A verificação é necessária para garantir que o cálculo externo pelos fornecedores de GPU é executado corretamente (ou seja, garantindo que os modelos dos utilizadores são treinados da forma que desejam). O Gensyn aborda este problema com uma abordagem única, utilizando métodos de verificação inovadores chamados "provas de aprendizagem probabilísticas, protocolos precisos baseados em gráficos e jogos de incentivo no estilo Truebit." Este é um modelo de resolução otimista que permite aos validadores confirmar que os solucionadores executaram o modelo corretamente sem precisar executar completamente o modelo eles mesmos, um processo que é dispendioso e ineficiente.

Para além do seu método inovador de verificação, a Gensyn também alega ser rentável em comparação com alternativas centralizadas e concorrentes de criptomoedas - oferecendo preços de formação em ML até 80% mais baratos do que a AWS, enquanto supera projetos semelhantes como o Truebit em testes.

Se estes resultados iniciais podem ser replicados em grande escala em redes descentralizadas ainda está por ver. A Gensyn espera utilizar a capacidade computacional excedentária de fornecedores como pequenos centros de dados, utilizadores individuais e, eventualmente, pequenos dispositivos móveis como smartphones. No entanto, como a própria equipa da Gensyn admite, depender de fornecedores de computação heterogéneos introduz alguns novos desafios.

Para fornecedores centralizados como Google Cloud e Coreweave, os custos de computação são caros, mas a comunicação entre as computações (largura de banda e latência) é barata. Esses sistemas são projetados para facilitar a comunicação entre hardware o mais rapidamente possível. Gensyn perturba esse framework ao reduzir os custos de computação, permitindo que qualquer pessoa no mundo ofereça GPUs, mas ao mesmo tempo aumenta os custos de comunicação, já que a rede agora deve coordenar trabalhos de computação em hardware heterogêneo distante. Gensyn ainda não foi lançado, mas representa uma prova de conceito que poderia ser alcançada ao construir um protocolo descentralizado de treinamento de aprendizado de máquina.

Inteligência Geral Descentralizada

As plataformas de computação descentralizada também oferecem a possibilidade de projetar métodos para a criação de inteligência artificial. Bittensor é um protocolo de computação descentralizada construído no Substrate, tentando responder à pergunta: "Como transformamos a inteligência artificial em um método colaborativo?" O Bittensor visa alcançar a descentralização e mercantilização da geração de IA. Lançado em 2021, ele espera utilizar o poder dos modelos colaborativos de aprendizado de máquina para iterar e produzir continuamente uma IA melhor.

Bittensor tira inspiração do Bitcoin, com sua moeda nativa, TAO, tendo um limite de oferta de 21 milhões e um ciclo de redução para metade a cada quatro anos (a primeira redução para metade está definida para 2025). Ao contrário da utilização de Prova de Trabalho para gerar números aleatórios corretos e obter recompensas de bloco, o Bittensor depende de “Prova de Inteligência”, exigindo que os mineiros executem modelos para gerar saídas em resposta a pedidos de inferência.

Incentivizando Inteligência

Inicialmente, o Bittensor dependia de um modelo de Mixture of Experts (MoE) para gerar saídas. Quando é submetido um pedido de inferência, o modelo MoE não se baseia num modelo generalizado, mas encaminha o pedido para o modelo mais preciso para o tipo de entrada fornecida. Imagine construir uma casa, onde contrata vários especialistas para diferentes aspectos do processo de construção (por exemplo, arquitetos, engenheiros, pintores, trabalhadores da construção civil, etc.). O MoE aplica isso aos modelos de aprendizagem de máquina, tentando alavancar as saídas de diferentes modelos com base na entrada. Como explicado pelo fundador do Bittensor, Ala Shaabana, isto é como "falar com uma sala cheia de pessoas inteligentes para obter a melhor resposta, em vez de falar com uma única pessoa." Devido aos desafios na garantia de encaminhamento correto, sincronização de mensagens para o modelo correto e incentivos, este método foi colocado em espera até ao desenvolvimento adicional do projeto.

Na rede Bittensor, existem dois participantes principais: validadores e mineradores. Os validadores enviam pedidos de inferência para os mineradores, revisam suas saídas e classificam-nas com base na qualidade de suas respostas. Para garantir que suas classificações sejam confiáveis, os validadores recebem uma pontuação de “vtrust” com base em quão consistentes são suas classificações com outros validadores. Quanto maior a pontuação de vtrust de um validador, mais emissões de TAO eles recebem. Isso é para incentivar os validadores a chegar a um consenso sobre as classificações do modelo ao longo do tempo, uma vez que quanto mais validadores concordam com as classificações, maior são suas pontuações individuais de vtrust.

Os mineradores, também conhecidos como servidores, são participantes da rede que executam os modelos reais de aprendizado de máquina. Eles competem para fornecer as saídas mais precisas para as consultas dos validadores, e quanto mais precisas as saídas, mais emissões de GAT eles ganham. Os mineradores são livres para gerar essas saídas como desejarem. Por exemplo, no futuro, é totalmente possível para os mineiros Bittensor ter previamente modelos treinados em Gensyn e usá-los para ganhar emissões de TAO.

Hoje, a maioria das interações ocorre diretamente entre validadores e mineiros. Os validadores enviam inputs aos mineiros e solicitam outputs (ou seja, treinamento do modelo). Uma vez que os validadores consultam os mineiros na rede e recebem suas respostas, eles classificam os mineiros e enviam suas classificações para a rede.

A interação entre validadores (baseada em PoS) e mineradores (baseada em Modelo de Prova, uma forma de PoW) é conhecida como consenso Yuma. O objetivo é incentivar os mineradores a produzir as melhores saídas para ganhar emissões de TAO e incentivar os validadores a classificar com precisão as saídas dos mineradores, obtendo pontuações de vtrust mais altas e aumentando suas recompensas de TAO, formando assim um mecanismo de consenso para a rede.

Sub-redes e Aplicações

As interações no Bittensor envolvem principalmente validadores que enviam pedidos aos mineradores e avaliam as suas saídas. No entanto, à medida que a qualidade dos mineradores contribuintes melhora e a inteligência geral da rede cresce, o Bittensor está a criar uma camada de aplicação em cima da sua pilha existente para que os programadores possam construir aplicações que questionam a rede Bittensor.

Em outubro de 2023, a Bittensor introduziu sub-redes através da atualização Revolution, dando um passo significativo rumo à realização deste objetivo. As sub-redes são redes separadas na Bittensor que incentivam comportamentos específicos. A Revolution abriu a rede a qualquer pessoa interessada em criar sub-redes. Dentro de meses após o seu lançamento, mais de 32 sub-redes foram lançadas, incluindo sub-redes para prompts de texto, scraping de dados, geração de imagens e armazenamento. À medida que as sub-redes amadurecem e se tornam prontas para o produto, os criadores de sub-redes também criarão integrações de aplicativos, permitindo que as equipas construam aplicações que consultem sub-redes específicas. Algumas aplicações, como chatbots, geradores de imagens, bots de resposta do Twitter e mercados de previsão, já existem, mas não existem incentivos formais além do financiamento da Fundação Bittensor para que os validadores aceitem e encaminhem essas consultas.

Para uma explicação mais clara, abaixo está um exemplo de como o Bittensor pode funcionar uma vez que os aplicativos são integrados à rede.

As sub-redes ganham TAO com base no desempenho avaliado pela rede raiz. A rede raiz, situada acima de todas as sub-redes, age essencialmente como uma sub-rede especial e é gerida pelos 64 maiores validadores de sub-redes por participação. Os validadores da rede raiz classificam as sub-redes com base no seu desempenho e alocam periodicamente emissões de TAO às sub-redes. Deste modo, as sub-redes individuais atuam como mineradores para a rede raiz.

Visão do Bittensor

Bittensor ainda está a passar por dores de crescimento à medida que expande a funcionalidade do protocolo para incentivar a geração de inteligência em várias sub-redes. Os mineradores estão constantemente a conceber novas formas de atacar a rede para obter mais recompensas TAO, como alterando ligeiramente a saída de inferências altamente avaliadas executadas pelos seus modelos e depois submetendo múltiplas variantes. Propostas de governação que afetam toda a rede só podem ser submetidas e implementadas pelo Triunvirato, composto inteiramente por partes interessadas da Fundação Opentensor (notavelmente, as propostas requerem aprovação do Senado Bittensor, composto por validadores Bittensor, antes da implementação). A tokenómica do projeto está a ser modificada para melhorar os incentivos para o uso inter-redes de TAO. O projeto também ganhou rapidamente notoriedade pela sua abordagem única, com o CEO de um dos websites de IA mais populares, HuggingFace, a afirmar que Bittensor deveria adicionar os seus recursos ao site.

Num artigo recente intitulado “Paradigma Bittensor” publicado pelos desenvolvedores principais, a equipa delineou a visão da Bittensor de se tornar eventualmente “agnóstica em relação ao que é medido.” Teoricamente, isto poderia permitir que a Bittensor desenvolvesse subredes que incentivam qualquer tipo de comportamento suportado pelo TAO. Ainda existem consideráveis limitações práticas — principalmente, a prova de que estas redes podem escalar para lidar com uma gama tão diversa de processos e que os incentivos potenciais impulsionam o progresso para além dos produtos centralizados.

Construindo uma pilha de computação descentralizada para modelos de inteligência artificial

A seção acima fornece uma visão geral aprofundada de vários tipos de protocolos de computação de inteligência artificial (IA) descentralizados atualmente em desenvolvimento. Em seus estágios iniciais de desenvolvimento e adoção, eles estabelecem as bases para um ecossistema que poderia eventualmente facilitar a criação de "blocos de construção de IA", semelhante ao conceito de "legos de dinheiro" no DeFi. A capacidade de composição de blockchains sem permissão permite a possibilidade de cada protocolo ser construído sobre outro, criando um ecossistema de IA descentralizado mais abrangente. \
Por exemplo, é assim que Akash, Gensyn e Bittensor podem interagir para responder a solicitações de inferência.

É crucial entender que este é apenas um exemplo do que poderia acontecer no futuro, não uma representação do ecossistema atual, parcerias existentes ou resultados potenciais. As limitações da interoperabilidade e outras considerações descritas abaixo restringem significativamente as possibilidades de integração hoje. Além disso, a fragmentação da liquidez e a necessidade de usar vários tokens poderiam prejudicar a experiência do usuário, um ponto observado pelos fundadores da Akash e Bittensor.

Outros produtos descentralizados

Além da computação, vários outros serviços de infraestrutura descentralizados foram introduzidos para apoiar o emergente ecossistema de IA dentro do espaço de criptomoedas. Listar todos eles está além do escopo deste relatório, mas alguns exemplos interessantes e ilustrativos incluem:

  • Ocean: Um mercado de dados descentralizado onde os utilizadores podem criar NFTs de dados representando os seus dados e comprar usando tokens de dados. Os utilizadores podem rentabilizar os seus dados e ter maior soberania sobre eles, ao mesmo tempo que fornecem às equipas de IA acesso aos dados necessários para desenvolver e treinar modelos.
  • Grass: Um mercado descentralizado de largura de banda onde os utilizadores podem vender o seu excesso de largura de banda a empresas de IA, que a utilizam para recolher dados da internet. Construído na rede Wynd, isto permite às pessoas rentabilizar a sua largura de banda e oferece aos compradores de largura de banda uma perspetiva mais diversificada do que os utilizadores individuais veem online (uma vez que o acesso à internet individual é frequentemente personalizado com base no seu endereço IP).
  • HiveMapper: Constrói um produto de mapa descentralizado incorporando informações recolhidas de condutores diários. O HiveMapper baseia-se em IA para interpretar imagens recolhidas das câmaras dos painéis dos utilizadores e recompensa os utilizadores com tokens por ajudarem a ajustar os modelos de IA através do Feedback de Aprendizagem Humana Reforçada (RHLF).

No geral, esses exemplos apontam para as oportunidades quase ilimitadas de explorar modelos de mercado descentralizados que suportam modelos de IA ou a infraestrutura periférica necessária para desenvolvê-los. Atualmente, a maioria desses projetos está na fase de prova de conceito e requer mais pesquisas e desenvolvimento para provar que podem operar na escala necessária para fornecer serviços abrangentes de IA.

Perspetiva

Os produtos de computação descentralizada ainda estão em estágios iniciais de desenvolvimento. Eles acabaram de começar a lançar capacidades de computação de última geração, capazes de treinar os modelos de inteligência artificial mais poderosos em produção. Para ganhar uma participação de mercado significativa, eles precisam demonstrar vantagens reais sobre as alternativas centralizadas. Os gatilhos potenciais para uma adoção mais ampla incluem:

  • Fornecimento/Demanda de GPUs. A escassez de GPUs combinada com a crescente demanda de computação está a levar a uma corrida às GPUs. Devido às limitações das GPUs, a OpenAI por vezes restringiu o acesso à sua plataforma. Plataformas como Akash e Gensyn podem oferecer alternativas competitivas em termos de custo para equipas que necessitam de computação de alto desempenho. Os próximos 6-12 meses representam uma oportunidade particularmente única para os fornecedores de computação descentralizada atrair novos utilizadores que são obrigados a considerar produtos descentralizados devido à falta de acesso ao mercado mais amplo. Além disso, com o desempenho cada vez mais melhorado de modelos de código aberto como o LLaMA2 da Meta, os utilizadores já não enfrentam as mesmas barreiras ao implementar modelos eficazes ajustados, tornando os recursos de computação o principal gargalo. No entanto, a mera existência de plataformas não garante um fornecimento de computação suficiente e a demanda do consumidor correspondente. A aquisição de GPUs de alta qualidade continua a ser um desafio, e o custo nem sempre é o principal motivador da demanda. Estas plataformas enfrentarão desafios na demonstração dos benefícios reais da utilização de opções de computação descentralizada (seja devido ao custo, resistência à censura, tempo de atividade e resiliência, ou acessibilidade) para acumular utilizadores fiéis. Devem agir rapidamente, uma vez que os investimentos e construções de infraestruturas de GPUs estão a avançar a um ritmo impressionante.
  • Regulação. A regulamentação continua a ser uma barreira ao movimento da computação descentralizada. A curto prazo, a falta de uma regulamentação clara significa que tanto os prestadores como os utilizadores enfrentam riscos potenciais na utilização destes serviços. E se os fornecedores oferecerem computação ou os compradores comprarem computação sem saber de entidades sancionadas? Os usuários podem hesitar em usar plataformas descentralizadas sem controle e supervisão centralizados. Os protocolos tentam aliviar essas preocupações incorporando controles em suas plataformas ou adicionando filtros para acessar apenas provedores de computação conhecidos (ou seja, aqueles que forneceram informações Know Your Customer (KYC)), mas uma abordagem mais robusta é necessária para proteger a privacidade e, ao mesmo tempo, garantir a conformidade. No curto prazo, podemos ver o surgimento de KYC e plataformas de conformidade que restringem o acesso aos seus protocolos para resolver essas questões. Além disso, as discussões em torno de um possível novo marco regulatório nos EUA (exemplificado pela emissão da Ordem Executiva sobre a Promoção do Desenvolvimento e Uso Seguro, Confiável e Confiável de Inteligência Artificial) destacam o potencial de ações regulatórias para restringir ainda mais o acesso à GPU.
  • A censura. A regulação é uma faca de dois gumes, e os produtos de computação descentralizada poderiam beneficiar de ações que limitem o acesso à IA. Para além das ordens executivas, o fundador da OpenAI, Sam Altman, testemunhou no Congresso que os reguladores deveriam emitir licenças para o desenvolvimento de IA. As discussões sobre a regulação da IA estão apenas a começar, mas qualquer tentativa de restringir o acesso ou censurar as capacidades da IA poderia acelerar a adoção de plataformas descentralizadas que não enfrentam tais barreiras. As mudanças de liderança (ou a falta delas) na OpenAI em novembro indicam ainda mais que confiar o poder de decisão dos modelos de IA mais poderosos existentes a poucos é arriscado. Além disso, todos os modelos de IA refletem inevitavelmente os preconceitos daqueles que os criam, quer intencionalmente quer não. Uma forma de eliminar esses preconceitos é tornar os modelos o mais abertos possível para ajustes e treino, garantindo que qualquer pessoa, em qualquer lugar, possa aceder a uma variedade de modelos com diferentes preconceitos.
  • Privacidade de Dados. A computação descentralizada pode ser mais atrativa do que alternativas centralizadas quando integrada com soluções externas de dados e privacidade que ofereçam aos usuários a soberania dos dados. A Samsung tornou-se vítima quando percebeu que os engenheiros estavam a usar o ChatGPT para design de chips e a divulgar informações sensíveis para o ChatGPT. A Phala Network e a iExec afirmam fornecer aos usuários enclaves seguros SGX para proteger os dados do usuário, e a pesquisa contínua de criptografia totalmente homomórfica poderia desbloquear ainda mais a computação descentralizada assegurada pela privacidade. À medida que a IA se integra cada vez mais em nossas vidas, os usuários valorizarão cada vez mais a capacidade de executar modelos em aplicativos com proteção de privacidade. Os usuários também precisam de suporte para serviços de composição de dados, para que possam transferir dados de um modelo para outro de forma transparente.
  • Experiência do Utilizador (UX). A experiência do utilizador continua a ser uma barreira significativa à adoção mais ampla de todos os tipos de aplicações e infraestruturas cripto. Isso não é diferente para os produtos de computação descentralizada e é exacerbado em alguns casos devido aos programadores precisarem de entender tanto de criptomoedas como de IA. As melhorias precisam de começar a partir do básico, como juntar e extrair interações com a blockchain, para fornecer o mesmo resultado de alta qualidade que os líderes de mercado atuais. Isso é evidente dada a dificuldade que muitos protocolos de computação descentralizada operacionais, que oferecem produtos mais baratos, têm em ganhar uso regular.

Contratos inteligentes e zkML

Os contratos inteligentes são a pedra angular de qualquer ecossistema blockchain. Executam automaticamente sob um conjunto de condições específicas, reduzindo ou eliminando a necessidade de terceiros de confiança, permitindo assim a criação de aplicações descentralizadas complexas, como as de DeFi. No entanto, a funcionalidade dos contratos inteligentes ainda é limitada porque eles operam com base em parâmetros predefinidos que devem ser atualizados.

Por exemplo, um contrato inteligente implantado para um protocolo de empréstimo / empréstimo, que contém especificações sobre quando as posições devem ser liquidadas com base em índices de garantia específicos. Embora úteis em ambientes estáticos, esses contratos inteligentes precisam de atualizações constantes para se adaptarem a alterações na tolerância ao risco em situações dinâmicas, apresentando desafios para contratos não geridos por processos centralizados. Por exemplo, as DAOs que dependem de processos de governança descentralizada podem não reagir com rapidez suficiente aos riscos sistémicos.

Integrar inteligência artificial (ou seja, modelos de aprendizagem automática) em contratos inteligentes é uma forma potencial de melhorar funcionalidade, segurança e eficiência, ao mesmo tempo que melhora a experiência do utilizador. No entanto, essas integrações também introduzem riscos adicionais, pois é impossível garantir que os modelos subjacentes a esses contratos inteligentes não serão explorados ou falhem ao interpretar situações de cauda longa (dada a escassez de entradas de dados, as situações de cauda longa são difíceis para os modelos treinarem).

Aprendizado de Máquina de Conhecimento Zero (zkML)

A aprendizagem automática requer uma computação significativa para executar modelos complexos, tornando impraticável executar diretamente modelos de IA em contratos inteligentes devido aos altos custos. Por exemplo, um protocolo DeFi que oferece modelos de otimização de rendimento teria dificuldade em executar esses modelos on-chain sem incorrer em taxas de gás proibitivas. Uma solução é aumentar as capacidades computacionais da blockchain subjacente. No entanto, isso também aumenta os requisitos para os validadores da cadeia, comprometendo potencialmente a descentralização. Em vez disso, alguns projetos estão explorando o uso de zkML para verificar saídas de forma confiável sem a necessidade de computação intensiva on-chain.

Um exemplo comum que ilustra a utilidade do zkML é quando os usuários precisam que outros executem dados através de modelos e verifiquem se seus homólogos realmente executaram o modelo correto. Os desenvolvedores que usam provedores de computação descentralizada para treinar seus modelos podem se preocupar com esses provedores cortando custos usando modelos mais baratos que produzem saídas com diferenças quase impercetíveis. O zkML permite que os provedores de computação executem dados através de seus modelos e, em seguida, gerem provas que podem ser verificadas on-chain, provando que as saídas do modelo para determinadas entradas estão corretas. Neste cenário, o fornecedor do modelo ganha a vantagem adicional de poder oferecer o seu modelo sem revelar os pesos subjacentes que produziram os resultados.

O oposto também é possível. Se os utilizadores quiserem executar modelos nos seus dados, mas não quiserem dar acesso aos projetos de modelo aos seus dados devido a preocupações com a privacidade (por exemplo, em verificações médicas ou informações comerciais proprietárias), podem executar o modelo nos seus dados sem partilhar os dados e depois verificar através de provas que executaram o modelo correto. Estas possibilidades expandem significativamente o espaço de design para integrar funcionalidades de IA e contratos inteligentes, abordando desafios computacionais assustadores.

Infraestrutura e ferramentas

Dado o estado inicial do campo zkML, o desenvolvimento está principalmente focado na construção da infraestrutura e das ferramentas de que as equipas precisam para converter os seus modelos e resultados em provas verificáveis na cadeia. Estes produtos abstraem o máximo possível os aspectos de conhecimento zero.

EZKL e Gizé são dois projetos que constroem essas ferramentas fornecendo provas verificáveis da execução do modelo de aprendizado de máquina. Ambos ajudam as equipes a construir modelos de aprendizado de máquina para garantir que esses modelos possam ser executados de uma maneira que permita que os resultados sejam verificados on-chain de forma confiável. Ambos os projetos usam Open Neural Network Exchange (ONNX) para converter modelos de aprendizado de máquina escritos em linguagens comuns como TensorFlow e Pytorch em um formato padrão. Em seguida, eles produzem versões desses modelos que também geram provas zk após a execução. EZKL é open-source, produzindo zk-SNARKs, enquanto Giza é de código fechado, produzindo zk-STARKs. Ambos os projetos são atualmente compatíveis apenas com EVM.

Nos últimos meses, a EZKL fez progressos significativos na melhoria das soluções zkML, concentrando-se principalmente na redução de custos, melhoria da segurança e aceleração da geração de provas. Por exemplo, em novembro de 2023, a EZKL integrou uma nova biblioteca de GPU de código aberto que reduziu o tempo de prova de agregação em 35%; em janeiro, a EZKL lançou o Lilith, uma solução de software para integrar clusters de computação de alto desempenho e orquestrar sistemas de trabalho simultâneos ao usar provas EZKL. A singularidade do Giza reside em fornecer ferramentas para criar modelos de aprendizado de máquina verificáveis e planejar a implementação de um equivalente web3 da Hugging Face, abrindo um mercado de usuários para colaboração zkML e compartilhamento de modelos, e eventualmente integrando produtos de computação descentralizada. Em janeiro, a EZKL publicou uma avaliação de benchmark comparando o desempenho da EZKL, Giza e RiscZero (conforme descrito abaixo), demonstrando tempos de prova mais rápidos e uso de memória.

A Modulus Labs está a desenvolver atualmente uma nova tecnologia de prova de conhecimento zero (zk) especificamente adaptada para modelos de IA. A Modulus lançou um artigo intitulado "Custo Inteligente", que implica que a execução de modelos de IA em cadeia incorre em custos proibitivamente elevados. Este artigo, publicado em janeiro de 2023, compara os sistemas de prova zk existentes para identificar melhorias na capacidade de prova zk e gargalos dentro de modelos de IA. Revela que os produtos atuais são demasiado caros e ineficientes para aplicações de IA em grande escala. Aproveitando a pesquisa inicial, a Modulus lançou o Remainder em novembro, um provador zk especializado destinado a reduzir o custo e o tempo de prova para modelos de IA, tornando os projetos economicamente viáveis para integração em grande escala em contratos inteligentes. O seu trabalho é proprietário, o que torna impossível a comparação com as soluções mencionadas, mas foi recentemente citado no post do blog de Vitalik sobre criptografia e inteligência artificial.

O desenvolvimento de ferramentas e infraestruturas é crucial para o crescimento futuro do espaço zkML, pois pode reduzir significativamente o atrito envolvido na implementação de computações off-chain verificáveis e na necessidade de equipas zk. A criação de interfaces seguras para praticantes de aprendizado de máquina não nativos de cripto trazerem seus modelos on-chain permitirá que as aplicações experimentem casos de uso verdadeiramente inovadores. Além disso, essas ferramentas abordam uma grande barreira para a adoção mais ampla do zkML: a falta de desenvolvedores conhecedores interessados em trabalhar na interseção de conhecimento zero, aprendizado de máquina e criptografia.

Coprocessor

Outras soluções em desenvolvimento, referidas como “coprocessadores” (incluindo RiscZero, Axiom e Ritual), desempenham vários papéis, incluindo a verificação de cálculos off-chain on-chain. Tal como EZKL, Giza e Modulus, o seu objetivo é abstrair completamente o processo de geração de prova zk, criando máquinas virtuais de conhecimento zero capazes de executar programas off-chain e gerar provas verificáveis on-chain. RiscZero e Axiom atendem a modelos de IA simples como coprocessadores mais gerais, enquanto o Ritual é construído especificamente para uso com modelos de IA.

A primeira instância do Ritual, Infernet, inclui um Infernet SDK que permite aos desenvolvedores enviar pedidos de inferência para a rede e receber resultados e provas opcionais em troca. Os nós do Infernet processam esses cálculos fora da cadeia antes de devolverem os resultados. Por exemplo, um DAO poderia estabelecer um processo que garanta que todas as novas propostas de governança cumpram certos requisitos antes de serem submetidas. Sempre que uma nova proposta é submetida, o contrato de governança desencadeia um pedido de inferência através do Infernet, invocando um modelo de IA treinado especificamente para a governança do DAO. Este modelo analisa a proposta para garantir que todos os padrões necessários sejam cumpridos e devolve resultados e evidências para aprovar ou rejeitar a submissão da proposta.

Durante o próximo ano, a equipa da Ritual planeia introduzir mais funcionalidades, formando uma camada de infraestrutura conhecida como a supercadeia Ritual. Muitos dos projetos discutidos poderiam ser integrados como fornecedores de serviços na Ritual. A equipa da Ritual já se integrou com a EZKL para a geração de provas e em breve poderá adicionar funcionalidades de outros principais fornecedores. Os nós do Infernet na Ritual também poderiam utilizar GPUs da Akash ou io.net e modelos de consulta treinados na sub-rede Bittensor. O seu objetivo final é tornar-se o fornecedor preferido de infraestrutura de IA aberta, oferecendo serviços para aprendizagem automática e outras tarefas relacionadas com IA para qualquer rede e qualquer carga de trabalho.

Aplicações

zkML está a ajudar na reconciliação da dicotomia entre blockchain, que é inerentemente limitada em recursos, e inteligência artificial, que exige recursos computacionais e de dados significativos. Como um fundador da Giza coloca, "os casos de uso são incrivelmente ricos... É um pouco como perguntar quais eram os casos de uso para contratos inteligentes nos primeiros dias do Ethereum... O que estamos a fazer é simplesmente expandir os casos de uso para contratos inteligentes." No entanto, como observado, o desenvolvimento atual está a acontecer predominantemente ao nível da ferramenta e infraestrutura. As aplicações ainda estão na fase exploratória, com as equipas a enfrentar o desafio de provar que o valor gerado pela implementação de modelos com zkML supera a sua complexidade e custo.

As aplicações atuais incluem:

  • Finanças Descentralizadas (DeFi). zkML melhora as capacidades dos contratos inteligentes, atualizando o espaço de design para DeFi. Os protocolos DeFi oferecem uma riqueza de dados verificáveis e imutáveis para modelos de aprendizado de máquina utilizarem na geração de estratégias de rendimento ou negociação, análise de risco, experiência do usuário, etc. Por exemplo, a Giza colaborou com a Yearn Finance para construir um mecanismo automático de avaliação de risco de prova de conceito para os novos cofres v3 da Yearn. A Modulus Labs está trabalhando com a Lyra Finance para integrar o aprendizado de máquina em seu AMM, com o Ion Protocol para implementar modelos para analisar os riscos dos validadores e ajudar a Upshot na validação de suas informações de preços NFT suportadas por IA. Protocolos como NOYA (usando EZKL) e Mozaic fornecem acesso a modelos off-chain proprietários, permitindo que os usuários acessem a mineração de liquidez automatizada enquanto validam entradas e provas de dados on-chain. A Spectral Finance está desenvolvendo um mecanismo de pontuação de crédito on-chain para prever a probabilidade de os mutuários Compound ou Aave ficarem inadimplentes nos empréstimos. Devido ao zkML, estes chamados produtos "De-Ai-Fi" provavelmente se tornarão cada vez mais populares nos próximos anos.
  • Jogos. Os jogos têm sido considerados há muito tempo para perturbação e aprimoramento através de blockchains públicos. O zkML permite jogos de inteligência artificial on-chain. A Modulus Labs realizou uma prova de conceito para jogos on-chain simples. "Leela vs the World" é um jogo de xadrez baseado na teoria dos jogos, onde os usuários competem contra um modelo de xadrez de IA, com o zkML verificando cada movimento que Leela faz com base no modelo em execução do jogo. Da mesma forma, as equipes estão usando o framework EZKL para construir competições de canto simples e jogos de tic-tac-toe on-chain. A Cartridge está usando o Giza para permitir que as equipes implantem jogos totalmente on-chain, destacando recentemente um jogo de direção de IA simples onde os usuários podem competir para criar melhores modelos para carros tentando evitar obstáculos. Embora simples, essas provas de conceito apontam para implementações futuras capazes de verificação mais complexa on-chain, como atores de NPC complexos que podem interagir com economias in-game, como visto em "AI Arena", um jogo de Super Smash Brothers onde os jogadores podem treinar seus guerreiros e então implantá-los como modelos de IA para lutar.
  • Identidade, Proveniência e Privacidade. As criptomoedas têm sido utilizadas para verificar autenticidade e combater o crescente problema de conteúdo gerado/manipulado por IA e deep fakes. zkML pode avançar nesses esforços. O WorldCoin é uma solução de verificação de identidade que exige que os utilizadores digitalizem as suas íris para gerar um ID único. No futuro, IDs biométricos poderiam ser armazenados nos dispositivos pessoais dos utilizadores usando encriptação e verificados usando modelos que funcionam localmente. Os utilizadores poderiam então fornecer evidências biométricas sem revelar as suas identidades, defendendo-se assim contra ataques Sybil, garantindo ao mesmo tempo a privacidade. Isso poderia também aplicar-se a outras inferências que requerem privacidade, como usar modelos para analisar dados/imagens médicas para deteção de doenças, verificar personalidades e desenvolver algoritmos de correspondência em aplicações de encontros, ou instituições de seguros e empréstimos que necessitam de verificar informações financeiras.

Perspetivas

O zkML permanece experimental, com a maioria dos projetos focando na construção de primitivas de infraestrutura e provas de conceito. Os desafios atuais incluem custos computacionais, limitações de memória, complexidade do modelo, ferramentas e infraestrutura limitadas e talento para desenvolvedores. Em suma, há um trabalho considerável a ser feito antes que o zkML possa ser implementado na escala exigida pelos produtos de consumo.

No entanto, à medida que o campo amadurece e essas limitações são abordadas, o zkML se tornará um componente chave na integração da inteligência artificial com a criptografia. Essencialmente, o zkML promete trazer qualquer escala de computação off-chain on-chain, mantendo as mesmas ou similares garantias de segurança que a execução on-chain. No entanto, antes que essa visão seja realizada, os primeiros adeptos da tecnologia continuarão a ter que equilibrar a privacidade e segurança do zkML contra a eficiência das alternativas.

Agentes de Inteligência Artificial

Agentes de Inteligência Artificial

Uma das integrações mais emocionantes de inteligência artificial e criptomoeda é o experimento em andamento com agentes de inteligência artificial. Os agentes são robôs autônomos capazes de receber, interpretar e executar tarefas usando modelos de IA. Isso poderia variar desde ter um assistente pessoal disponível o tempo todo, ajustado às suas preferências, até contratar um agente financeiro para gerenciar e ajustar sua carteira de investimentos com base em suas preferências de risco.

Dado que a criptomoeda oferece uma infraestrutura de pagamento sem permissão e sem confiança, os agentes e a criptomoeda podem ser bem integrados. Uma vez treinados, os agentes terão uma carteira, permitindo que realizem transações por conta própria usando contratos inteligentes. Por exemplo, os agentes de hoje podem coletar informações na internet e, em seguida, negociar em mercados de previsão com base em modelos.

Agent Providers

Morpheus é um dos mais recentes projetos de agente de código aberto lançados em 2024 na Ethereum e Arbitrum. Seu white paper foi publicado de forma anônima em setembro de 2023, fornecendo uma base para a formação e construção da comunidade, incluindo figuras proeminentes como Erik Vorhees. O white paper inclui um protocolo de agente inteligente para download, um LLM de código aberto que pode ser executado localmente, gerenciado pela carteira do usuário e interagir com contratos inteligentes. Ele usa classificações de contratos inteligentes para ajudar os agentes a determinar com segurança quais contratos inteligentes podem interagir com base em critérios como o número de transações processadas.

O white paper também fornece um quadro para construir a rede Morpheus, incluindo as estruturas de incentivo e infraestrutura necessárias para executar o protocolo do agente inteligente. Isso inclui incentivos para os contribuintes construírem interfaces para interagir com agentes, APIs para os desenvolvedores construírem agentes plug-in para interação mútua e soluções de nuvem para os usuários acessarem a computação e armazenamento necessários para executar agentes em dispositivos de borda. O financiamento inicial do projeto foi lançado no início de fevereiro, com o protocolo completo previsto para ser lançado no segundo trimestre de 2024.

Decentralized Autonomous Infrastructure Network (DAIN) é um novo protocolo de infraestrutura de agentes que constrói uma economia de agente para agente na Solana. O objetivo da DAIN é permitir que agentes de diferentes empresas interajam facilmente entre si através de uma API comum, abrindo significativamente o espaço de design para agentes de IA, focando em agentes que podem interagir com produtos web2 e web3. Em janeiro, a DAIN anunciou sua primeira parceria com a Asset Shield, permitindo aos utilizadores adicionar "assinantes de agentes" às suas multisigs, capazes de interpretar transações e aprovar/rejeitar com base em regras definidas pelo utilizador.

Fetch.AI é um dos protocolos de agentes de IA implantados mais cedo e desenvolveu um ecossistema para construir, implantar e usar agentes on-chain usando tokens FET e carteiras Fetch.AI. O protocolo oferece um conjunto abrangente de ferramentas e aplicações para usar agentes, incluindo funções de carteira para interagir com e ordenar agentes.

A Autonolas, fundada por ex-membros da equipa da Fetch, é um mercado aberto para criar e usar agentes de IA descentralizados. A Autonolas também fornece um conjunto de ferramentas para os desenvolvedores construírem agentes de IA hospedados off-chain que podem conectar-se a várias blockchains, incluindo Polygon, Ethereum, Gnosis Chain e Solana. Atualmente, eles têm alguns produtos de prova de conceito de agentes ativos, incluindo para mercados preditivos e governação de DAO.

A SingularityNet está a construir um mercado descentralizado para agentes de IA, onde agentes de IA especializados podem ser implantados, que podem ser contratados por outros agentes para realizar tarefas complexas. Outras empresas como a AlteredStateMachine estão a construir integrações de agentes de IA com NFTs. Os utilizadores criam NFTs com atributos aleatórios, que lhes conferem vantagens e desvantagens em diferentes tarefas. Estes agentes podem então ser treinados para melhorar certos atributos para uso em jogos, DeFi, ou como assistentes virtuais e serem negociados com outros utilizadores.

No geral, esses projetos vislumbram um futuro ecossistema de agentes capazes de trabalhar em colaboração não apenas para realizar tarefas, mas também para ajudar a construir inteligência artificial geral. Agentes verdadeiramente complexos terão a capacidade de completar autonomamente qualquer tarefa do usuário. Por exemplo, agentes totalmente autônomos serão capazes de descobrir como contratar outro agente para integrar uma API e depois executar uma tarefa sem ter que garantir que o agente já tenha integrado com APIs externas (como sites de reserva de viagens) antes de usar. Do ponto de vista do usuário, não há necessidade de verificar se um agente pode completar uma tarefa, pois o agente pode determinar isso por si próprio.

Bitcoin e Agentes de IA

Em julho de 2023, a Lightning Labs lançou uma implementação de prova de conceito para utilizar agentes na Lightning Network, apelidada de suite Bitcoin pela LangChain. Este produto é particularmente intrigante porque visa resolver um problema que está a tornar-se cada vez mais grave no mundo da Web 2 - as chaves de API fechadas e dispendiosas das aplicações web.

O LangChain aborda este problema, fornecendo aos desenvolvedores um conjunto de ferramentas que permitem aos agentes comprar, vender e manter Bitcoin, bem como consultar chaves API e enviar micropagamentos. Nas vias de pagamento tradicionais, os micropagamentos são proibitivamente caros devido às taxas, mas na Lightning Network, os agentes podem enviar um número ilimitado de micropagamentos diariamente a um custo mínimo. Quando usado em conjunto com o framework da API de medição de pagamento L402 da LangChain, as empresas podem ajustar os custos de acesso de suas APIs com base em aumentos e diminuições no uso, em vez de definir um padrão único e caro.

No futuro, as atividades de cadeia serão predominantemente impulsionadas por interações entre agentes e agentes, exigindo mecanismos para garantir que os agentes possam interagir entre si sem custos proibitivos. Este exemplo inicial demonstra o potencial de usar agentes em trilhos de pagamento sem permissão e economicamente eficientes, abrindo possibilidades para novos mercados e interações econômicas.

Perspetiva

O campo dos agentes ainda está em sua infância. Os projetos apenas começaram a lançar agentes funcionais capazes de lidar com tarefas simples—o acesso normalmente é limitado a desenvolvedores e usuários experientes. No entanto, ao longo do tempo, um dos impactos mais significativos dos agentes de inteligência artificial na criptomoeda será a melhoria da experiência do usuário em todas as verticais. As transações começarão a mudar de baseadas em cliques para baseadas em texto, permitindo que os usuários interajam com agentes on-chain por meio de interfaces conversacionais. Equipes como Dawn Wallet já lançaram carteiras de chatbot, permitindo que os usuários interajam on-chain.

Além disso, permanece incerto como os agentes irão operar na Web 2, já que os trilhos financeiros dependem de instituições bancárias regulamentadas que não podem operar 24 horas por dia, 7 dias por semana ou facilitar transações transfronteiriças sem problemas. Como Lyn Alden destacou, a falta de reembolsos e a capacidade de lidar com microtransações tornam os trilhos de criptomoeda particularmente atraentes em comparação com cartões de crédito. No entanto, se os agentes se tornarem um meio mais comum para transações, é provável que os provedores de pagamento e aplicativos existentes se adaptem rapidamente, implementando a infraestrutura necessária para operar nos trilhos financeiros existentes, diminuindo assim alguns benefícios de usar criptomoeda.

Atualmente, os agentes podem estar limitados a transações de criptomoeda determinísticas, onde uma entrada dada garante uma saída dada. Ambos os modelos delinearam a capacidade desses agentes de descobrir como realizar tarefas complexas, e as ferramentas estão expandindo o leque de tarefas que podem concluir, ambas as quais requerem um desenvolvimento adicional. Para que os agentes de cripto se tornem úteis além de casos de uso de criptomoeda em cadeia, é necessária uma integração e aceitação mais amplas da criptomoeda como forma de pagamento, juntamente com clareza regulatória. No entanto, à medida que esses componentes se desenvolvem, os agentes estão prontos para se tornar um dos maiores consumidores de computação descentralizada e soluções zkML, recebendo e resolvendo autonomamente qualquer tarefa de forma não determinística.

Conclusão

A IA introduz as mesmas inovações na criptomoeda que vimos no web2, melhorando tudo, desde o desenvolvimento de infraestruturas até a experiência do usuário e acessibilidade. No entanto, os projetos ainda estão nos estágios iniciais de desenvolvimento e a integração de criptomoeda e IA a curto prazo será principalmente impulsionada por integrações fora da cadeia.

Produtos como Copilot estão definidos para "aumentar a eficiência do desenvolvedor em 10 vezes," e as aplicações de Layer 1 e DeFi já lançaram plataformas de desenvolvimento assistido por IA em colaboração com grandes empresas como a Microsoft. Empresas como Cub3.ai e Test Machine estão desenvolvendo integrações de IA para auditoria de contratos inteligentes e monitoramento de ameaças em tempo real para aprimorar a segurança on-chain. Os chatbots LLM estão sendo treinados com dados on-chain, documentação de protocolo e aplicações para fornecer aos usuários uma acessibilidade e experiência do usuário aprimoradas.

O desafio para integrações mais avançadas que realmente aproveitam a tecnologia subjacente das criptomoedas continua a ser provar que implementar soluções de IA on-chain é tecnicamente e economicamente viável. O desenvolvimento de computação descentralizada, zkML e agentes de IA aponta para verticais promissores que lançam as bases para um futuro profundamente interligado de criptomoeda e IA.

Aviso legal:

  1. Este artigo foi reproduzido a partir de techflow, Todos os direitos autorais pertencem ao autor original [Lucas Tcheyan]. Se houver objeções a esta reimpressão, entre em contato com o Gate Learnequipa, e eles vão lidar com isso prontamente.
  2. Aviso de responsabilidade: As visões e opiniões expressas neste artigo são exclusivamente as do autor e não constituem qualquer conselho de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipa Gate Learn. Salvo indicação em contrário, é proibido copiar, distribuir ou plagiar os artigos traduzidos.
Start Now
Sign up and get a
$100
Voucher!