AI/DePIN/Sol Ecosystem Triple Halo: Analisando o Lançamento do Token IO.NET

Avançado4/17/2024, 6:40:47 AM
Este artigo organizará as informações-chave do projeto de computação descentralizada de IA: o projeto IO.NET, incluindo lógica do produto, situação competitiva e antecedentes do projeto. Também fornece estimativas de valuation, analisando a valuation de diferentes perspectivas através da análise de dados e oferecendo um cálculo de referência para valuation.

Introdução

Em meu artigo anterior, mencionei que, em comparação com os dois ciclos anteriores, este ciclo de mercado de alta de criptomoedas carece de novas narrativas de negócios e ativos influentes. A IA é uma das poucas novas narrativas neste ciclo do campo Web3. Neste artigo, vou combinar o projeto AI quente deste ano, IO.NET, para ponderar sobre as seguintes duas questões:

  1. A necessidade de AI+Web3 nos negócios

  2. A necessidade e os desafios dos serviços de computação distribuída

Além disso, organizarei as informações-chave do projeto representativo em computação distribuída de IA: o projeto IO.NET, incluindo lógica do produto, situação competitiva e antecedentes do projeto. Também explorarei a valuation do projeto.

A parte deste artigo sobre a combinação de IA e Web3 foi inspirada em “The Real Merge” escrito pelo pesquisador da Delphi Digital, Michael Rinko. Algumas opiniões neste artigo são uma digestão e citação desse artigo, e recomendo que os leitores se refiram ao original.

Este artigo representa meus pensamentos provisórios até a sua publicação. A situação pode mudar no futuro, e os pontos de vista têm uma forte natureza subjetiva. Eles também podem conter erros factuais, de dados ou de raciocínio. Por favor, não use isso como conselho de investimento, e eu recebo críticas e discussões dos meus colegas.

A seguir está o texto principal.

1. Lógica de negócios: A Interseção de IA e Web3

1.1 2023: O Novo “Ano Milagroso” Criado pela IA

Olhando para trás na história humana, uma vez que há uma ruptura na tecnologia, tudo desde a vida diária individual, até vários panoramas industriais e até mesmo toda a civilização da humanidade, passa por mudanças revolucionárias.

Existem dois anos significativos na história da humanidade, nomeadamente 1666 e 1905, que agora são referidos como os dois grandes "anos milagrosos" na história da tecnologia.

O ano de 1666 é considerado um ano milagroso porque as realizações científicas de Newton surgiram proeminentemente durante esse tempo. Naquele ano, ele foi pioneiro no ramo da física conhecido como óptica, fundou o ramo matemático do cálculo e derivou a lei da gravidade, uma lei fundamental da ciência natural moderna. Cada uma dessas realizações foi uma contribuição fundamental para o desenvolvimento científico da humanidade para o próximo século, acelerando significativamente o progresso geral da ciência.

O segundo ano milagroso foi 1905, quando Einstein, com apenas 26 anos, publicou quatro artigos seguidos no "Annals of Physics", abordando o efeito fotoelétrico (lançando as bases da mecânica quântica), o movimento browniano (tornando-se uma referência crucial para a análise de processos estocásticos), a teoria da relatividade especial e a equação massa-energia (a famosa fórmula E=MC^2). Em avaliações subsequentes, cada um desses artigos foi considerado superior ao nível médio do Prêmio Nobel de Física (Einstein ele próprio também recebeu o Prêmio Nobel por seu artigo sobre o efeito fotoelétrico), e mais uma vez, a progressão histórica da civilização humana deu vários saltos gigantescos para a frente.

O ano recentemente passado de 2023 provavelmente será chamado de outro "ano milagroso" por causa do ChatGPT.

Consideramos 2023 como mais um “ano milagroso” na história da tecnologia humana, não apenas por causa dos avanços significativos que o GPT fez em compreensão e geração de linguagem natural, mas também porque a humanidade decifrou o padrão de crescimento de modelos de linguagem grandes a partir da evolução do GPT — ou seja, ao expandir os parâmetros do modelo e os dados de treinamento, as capacidades do modelo podem ser exponencialmente aprimoradas — e esse processo ainda não apresenta um gargalo de curto prazo (desde que haja poder computacional suficiente).

Essa capacidade vai muito além do entendimento da linguagem e da geração de diálogo e é amplamente utilizada em diversos campos tecnológicos. Por exemplo, no campo biológico em 2018, a laureada com o Prêmio Nobel de Química, Frances Arnold, disse durante a cerimônia de premiação: 'Hoje, em aplicações práticas, podemos ler, escrever e editar qualquer sequência de DNA, mas ainda não somos capazes de compô-la'. Apenas cinco anos após seu discurso, em 2023, pesquisadores da Universidade de Stanford e da Salesforce Research no Vale do Silício publicaram um artigo na 'Nature Biotechnology'. Eles criaram 1 milhão de novas proteínas do zero usando um grande modelo de linguagem ajustado do GPT3 e identificaram duas proteínas com estruturas distintas, ambas com capacidades antibacterianas, potencialmente se tornando uma nova solução para combater bactérias além dos antibióticos. Isso significa que o gargalo na 'criação' de proteínas foi quebrado com a ajuda da IA.

Além disso, o algoritmo de IA AlphaFold previu as estruturas de quase todos os 214 milhões de proteínas na Terra em 18 meses, um feito que supera as conquistas coletivas de todos os biólogos estruturais da história por centenas de vezes.

Com modelos baseados em IA na biotecnologia, ciência dos materiais, desenvolvimento de medicamentos e outras ciências exatas, bem como nas humanidades, como direito e arte, uma transformação revolucionária é inevitável, e 2023 é realmente o ano inaugural para todos esses avanços.

Como todos sabemos, no século passado, a criação de riqueza humana cresceu exponencialmente, e a rápida maturação da tecnologia de IA sem dúvida acelerará ainda mais esse processo.

Gráfico de tendência do PIB global, fonte de dados: Banco Mundial

1.2 A Integração de IA e Cripto

Para entender fundamentalmente a necessidade de integrar IA e Cripto, podemos começar pelas suas características complementares.

Características Complementares de IA e Cripto

AI possui três atributos:

  1. Aleatoriedade: A AI exibe aleatoriedade; o mecanismo por trás da produção de seu conteúdo é uma caixa preta difícil de replicar e inspecionar, portanto os resultados também são aleatórios.

  2. Intensivo em recursos: AI é uma indústria intensiva em recursos que requer quantidades significativas de energia, chips e poder computacional.

  3. Inteligência semelhante à humana: A IA em breve será capaz de passar no teste de Turing, tornando assim difícil distinguir entre humanos e máquinas.

Em 30 de outubro de 2023, uma equipe de pesquisa da Universidade da Califórnia, San Diego, divulgou os resultados do teste de Turing para GPT-3.5 e GPT-4.0. O GPT-4.0 obteve 41%, apenas 9% abaixo da marca de aprovação de 50%, com os participantes humanos marcando 63%. O significado deste teste de Turing é a porcentagem de pessoas que acreditam que seu parceiro de conversa é humano. Se mais de 50% acreditarem, isso indica que pelo menos metade das pessoas consideram a entidade de conversa como humana, não uma máquina, sendo assim considerada aprovada no teste de Turing.

Enquanto a IA cria nova produtividade inovadora para a humanidade, seus três atributos também trazem desafios significativos para a sociedade humana, incluindo:

  • Como verificar e controlar a aleatoriedade da IA, transformando a aleatoriedade de uma falha em uma vantagem.

  • Como atender às significativas necessidades de energia e potência computacional da IA.

  • Como diferenciar entre humanos e máquinas.

A cripto e a economia blockchain podem muito bem ser o remédio para os desafios trazidos pela IA. A economia criptográfica tem as seguintes três características:

  1. Determinismo: As operações comerciais são baseadas em blockchain, código e contratos inteligentes, com regras e limites claros; a entrada dita o resultado, garantindo alta determinismo.

  2. Alocação eficiente de recursos: A economia cripto construiu um enorme mercado global livre onde o precificação, captação de recursos e circulação de recursos são muito rápidos. Devido à presença de tokens, os incentivos podem acelerar o encontro entre oferta e demanda do mercado, atingindo pontos críticos mais rapidamente.

  3. Sem confiança: Com registros públicos e código aberto, todos podem facilmente verificar operações, levando a um sistema “sem confiança”. Além disso, a tecnologia ZK (Zero-Knowledge) evita a exposição da privacidade durante a verificação.

Vamos ilustrar a complementaridade entre a IA e a economia cripto com três exemplos.

Exemplo A: Abordando Aleatoriedade, Agentes de IA Baseados na Economia Cripto

Agentes de IA, como os da Fetch.AI, são projetados para agir conforme a vontade humana e realizar tarefas em nome dos humanos. Se quisermos que nosso agente de IA lide com uma transação financeira, como “comprar $1000 de BTC”, ele pode enfrentar dois cenários:

  • Cenário Um: É necessário interagir com instituições financeiras tradicionais (como BlackRock) para comprar ETFs de BTC, enfrentando inúmeros problemas de compatibilidade com agentes de IA e instituições centralizadas, como KYC, revisão de documentação, login e verificação de identidade, que atualmente são bastante trabalhosos.

  • Cenário Dois: Ele opera com base na economia cripto nativa, que é muito mais simples; ele poderia executar transações diretamente através do Uniswap ou de uma plataforma de negociação agregada similar usando a assinatura da sua conta, completando a transação de forma rápida e simples para receber WBTC (ou outra forma envolvida de BTC). Basicamente, isso é o que vários bots de negociação já estão fazendo, embora focados exclusivamente na negociação por enquanto. Conforme a IA se integra e evolui, os futuros bots de negociação, sem dúvida, serão capazes de executar intenções de negociação mais complexas, como rastrear as estratégias de negociação e as taxas de sucesso de 100 endereços de dinheiro inteligente na blockchain, executando transações semelhantes com 10% dos meus fundos ao longo de uma semana, e parando e resumindo as razões para o fracasso se os resultados forem insatisfatórios.

A IA tem um desempenho melhor dentro dos sistemas blockchain principalmente devido à clareza das regras cripto econômicas e ao acesso irrestrito ao sistema. Dentro dessas regras definidas, os riscos potenciais trazidos pela aleatoriedade da IA são minimizados. Por exemplo, a IA já superou os humanos em jogos de cartas e videogames devido ao sandbox claro e fechado de regras. No entanto, o progresso na direção autônoma é relativamente lento devido aos desafios do ambiente externo aberto, e somos menos tolerantes à aleatoriedade na resolução de problemas da IA em tais cenários.

Exemplo B: Moldando Recursos Através de Incentivos de Token**

A rede global por trás do BTC, com uma taxa de hash total atual de 576,70 EH/s, supera o poder computacional combinado de qualquer supercomputador de país. Seu desenvolvimento é impulsionado por um incentivo de rede simples e justo.

Tendência de poder de computação da rede BTC, fonte:https://www.coinwarz.com/

Além disso, projetos como o DePIN da Mobile estão tentando moldar um mercado de dois lados para oferta e demanda por meio de incentivos de tokens, com o objetivo de alcançar efeitos de rede. O foco da seguinte discussão neste artigo, IO.NET, é uma plataforma projetada para agregar potência computacional de IA, esperando liberar mais potencial de IA por meio de um modelo de token.

Exemplo C: código aberto, introdução de Provas de Conhecimento Zero (ZK) para diferenciar humanos de máquinas enquanto protege a privacidade

Como um projeto Web3 envolvendo o fundador da OpenAI Sam Altman, o Worldcoin utiliza um dispositivo de hardware chamado Orb, que gera um valor de hash único e anônimo com base na biometria da íris humana através da tecnologia ZK para verificar a identidade e diferenciar humanos de máquinas. No início de março deste ano, o projeto de arte Web3 Drip começou a usar o ID do Worldcoin para verificar usuários humanos reais e distribuir recompensas.

Além disso, a Worldcoin recentemente tornou o código do programa de seu hardware de reconhecimento de íris Orb de código aberto, garantindo a segurança e privacidade dos dados biométricos do usuário.

Em geral, a economia cripto se tornou uma solução potencial significativa para os desafios impostos pela IA à sociedade humana, devido à certeza do código e criptografia, às vantagens da circulação de recursos e captação trazidas pelos mecanismos de Token, e à natureza sem confiança baseada em código aberto e registros públicos.

O desafio mais urgente e comercialmente exigente é a extrema fome por recursos computacionais por produtos de IA, que gira em torno da enorme demanda por chips e poder computacional.

Este também é o principal motivo pelo qual os projetos de computação distribuída lideraram o rastreamento geral de IA neste ciclo de mercado de alta.

A necessidade comercial da computação descentralizada

AI requer recursos computacionais substanciais, tanto para treinar modelos quanto para inferência.

Na prática do treinamento de grandes modelos de linguagem, foi confirmado que, desde que a escala dos parâmetros de dados seja suficientemente grande, novas capacidades surgem que não estavam presentes anteriormente. Cada geração do GPT mostra um salto exponencial em capacidades em comparação com seu antecessor, apoiado por um crescimento exponencial no volume computacional necessário para o treinamento do modelo.

Pesquisa realizada pelo DeepMind e pela Universidade de Stanford mostra que diferentes modelos de linguagem de grande escala, ao enfrentar várias tarefas (cálculo, perguntas e respostas em persa, compreensão da linguagem natural, etc.), têm um desempenho semelhante a respostas aleatórias até que o treinamento atinja menos de 10^22 FLOPs (FLOPs denotam operações de ponto flutuante por segundo, uma medida de desempenho computacional); no entanto, uma vez que a escala de parâmetros ultrapassa esse limiar crítico, o desempenho de qualquer tarefa melhora dramaticamente, independentemente do modelo de linguagem.

Fonte: Capacidades Emergentes de Modelos de Linguagem Grandes

Habilidades Emergentes de Modelos de Linguagem Grandes

É precisamente o princípio de 'realizar milagres com grande poder de computação' e sua verificação prática que levou Sam Altman, o fundador da OpenAI, a propor a arrecadação de 7 trilhões de dólares americanos para construir uma fábrica de chips avançada que é dez vezes maior que a TSMC atual. Espera-se que 1,5 trilhão de dólares seja gasto nesta parte, com os fundos restantes sendo usados para produção de chips e treinamento de modelos.

Além do treinamento de modelos de IA, o processo de inferência dos próprios modelos também requer uma potência de computação substancial, embora menos do que a necessária para o treinamento. Portanto, o desejo por chips e potência de computação tornou-se uma norma entre os concorrentes de IA.

Comparadas aos provedores centralizados de computação de IA como Amazon Web Services, Google Cloud Platform e Azure da Microsoft, as principais propostas de valor da computação de IA distribuída incluem:

  • Acessibilidade: Acesso a chips de computação por meio de serviços em nuvem como AWS, GCP ou Azure geralmente leva semanas, e modelos populares de GPU frequentemente estão em falta. Além disso, para obter potência de computação, os consumidores muitas vezes precisam assinar contratos de longo prazo e inflexíveis com essas grandes empresas. Em contraste, plataformas de computação distribuída podem fornecer opções de hardware flexíveis com maior acessibilidade.
  • Preços mais baixos: Ao utilizar chips ociosos, combinados com subsídios de tokens do protocolo de rede para provedores de chips e potência computacional, as redes de computação distribuída podem oferecer potência computacional mais acessível.
  • Resistência à Censura: Atualmente, chips e suprimentos de computação de ponta são monopolizados por grandes empresas de tecnologia. Além disso, os governos liderados pelos Estados Unidos estão intensificando a fiscalização sobre os serviços de computação de IA. A capacidade de adquirir energia computacional de forma distribuída, flexível e gratuita está se tornando uma demanda clara, que é também uma proposta de valor central das plataformas de serviços de computação baseadas em web3.

Se os combustíveis fósseis foram o sangue vital da era industrial, então o poder de computação provavelmente será o sangue vital da nova era digital inaugurada pela IA, com o fornecimento de poder de computação tornando-se a infraestrutura da era da IA. Assim como as stablecoins se tornaram um ramo robusto da moeda fiduciária na era Web3, será que o mercado de computação distribuída pode se tornar um ramo de rápido crescimento do mercado de computação de IA?

Uma vez que este ainda é um mercado relativamente inicial, tudo ainda está sob observação. No entanto, os seguintes fatores poderiam potencialmente estimular a narrativa ou a adoção de mercado da computação distribuída:

  • Tensão contínua entre oferta e demanda de GPU. A tensão contínua na oferta de GPU pode incentivar alguns desenvolvedores a recorrer a plataformas de computação distribuída.
  • Expansão regulatória. Acesso aos serviços de computação de IA de grandes plataformas de computação em nuvem requer KYC e escrutínio extensivo. Isso pode, em vez disso, encorajar a adoção de plataformas de computação distribuída, especialmente em regiões enfrentando restrições e sanções.
  • Incentivos de preço do Token. Ciclos de mercado de alta e aumento nos preços dos tokens aumentam o valor do subsídio para o lado do fornecimento de GPU, atraindo mais fornecedores para o mercado, aumentando o tamanho do mercado e reduzindo o preço de compra real para os consumidores.

No entanto, os desafios enfrentados pelas plataformas de computação distribuída também são bastante evidentes:

  • Desafios técnicos e de engenharia
  • Problemas de Prova de Trabalho: A computação para modelos de aprendizado profundo, devido à sua estrutura hierárquica onde a saída de cada camada serve como entrada para a próxima, requer a execução de todo o trabalho anterior para verificar a validade da computação. Isso não pode ser simples e efetivamente verificado. Para resolver esse problema, as plataformas de computação distribuída precisam desenvolver novos algoritmos ou utilizar técnicas de verificação aproximada, que podem fornecer garantias probabilísticas da correção do resultado, em vez de certeza absoluta.
  • Desafios de Paralelização: As plataformas de computação distribuída reúnem a longa cauda do fornecimento de chips, o que significa que dispositivos individuais podem oferecer apenas poder de computação limitado. Um único fornecedor de chips dificilmente pode concluir as tarefas de treinamento ou inferência de um modelo de IA de forma independente em um curto período, então as tarefas devem ser decompostas e distribuídas por meio de paralelização para encurtar o tempo total de conclusão. A paralelização também enfrenta inevitavelmente questões como como as tarefas são decompostas (especialmente tarefas complexas de aprendizado profundo), dependência de dados e custos adicionais de comunicação entre dispositivos.
  • Questões de Proteção de Privacidade: Como garantir que os dados e modelos da parte compradora não sejam expostos aos destinatários da tarefa?

Desafios de conformidade regulatória

  • Devido à natureza não licenciada dos mercados de abastecimento e aquisição dupla das plataformas de computação distribuída, eles podem atrair certos clientes como pontos de venda. Por outro lado, eles podem se tornar alvos de regulamentação governamental à medida que os padrões regulatórios de IA são aprimorados. Além disso, alguns fornecedores de GPU podem se preocupar se seus recursos de computação alugados estão sendo fornecidos a empresas ou indivíduos sancionados.

Em geral, os consumidores de plataformas de computação distribuída são principalmente desenvolvedores profissionais ou pequenas e médias instituições, ao contrário de investidores de criptomoedas e NFT que diferem em suas expectativas quanto à estabilidade e continuidade dos serviços oferecidos pelo protocolo. O preço pode não ser o principal motivo em sua tomada de decisão. Por enquanto, parece que as plataformas de computação distribuída ainda têm um longo caminho a percorrer para ganhar a aprovação desses usuários.

Em seguida, organizaremos e analisaremos as informações do projeto para um novo projeto de computação distribuída neste ciclo, IO.NET, e estimaremos sua possível avaliação de mercado após a listagem, com base nos concorrentes de mercado atuais nos setores de IA e computação distribuída.

2. Plataforma de Computação AI Distribuída: IO.NETPlataforma de Computação AI Distribuída: IO.NET

2.1 Posicionamento do Projeto

IO.NET é uma rede de computação descentralizada que estabeleceu um mercado bilateral centrado em chips. O lado da oferta é composto por chips (principalmente GPUs, mas também CPUs e iGPUs da Apple) distribuídos globalmente, enquanto o lado da demanda é composto por engenheiros de inteligência artificial que buscam realizar treinamento de modelos de IA ou tarefas de inferência.

Conforme declarado no site oficial da IO.NET:

Nossa Missão

Reunindo um milhão de GPUs em uma DePIN - rede de infraestrutura física descentralizada.

A missão é integrar milhões de GPUs em sua rede DePIN.

Comparado aos provedores de serviços de computação em nuvem de IA existentes, a IO.NET enfatiza os seguintes pontos-chave de venda:

  • Combinação flexível: os engenheiros de IA podem selecionar livremente e combinar os chips de que precisam para formar “Clusters” e concluir suas tarefas de computação.
  • Implantação Rápida: A implantação pode ser concluída em segundos, sem as semanas de aprovação e espera normalmente exigidas por provedores centralizados como AWS.
  • Serviço econômico: O custo dos serviços é 90% menor do que o dos fornecedores tradicionais.

Além disso, IO.NET planeja lançar serviços como uma loja modelo de IA no futuro.

2.2 Mecanismo do Produto e Dados de Negócios

Mecanismo do Produto e Experiência de Implantação

Similar ao Amazon Cloud, Google Cloud e Alibaba Cloud, o serviço de computação fornecido pela IO.NET é chamado de IO Cloud. IO Cloud é uma rede distribuída e descentralizada de chips capaz de executar código de aprendizado de máquina baseado em Python e executar programas de IA e aprendizado de máquina.

O módulo básico de negócios da IO Cloud é chamado de “Clusters”. Clusters são grupos de GPUs que podem coordenar autonomamente para completar tarefas de computação. Engenheiros de inteligência artificial podem personalizar seus Clusters desejados com base em suas necessidades.

A interface de produtos da IO.NET é altamente amigável ao usuário. Se você precisa implantar seus próprios Clusters de chips para concluir tarefas de computação de IA, você pode começar a configurar seus Clusters de chips desejados assim que entrar na página de produtos Clusters em seu site.

Informações da página: https://cloud.io.net/cloud/clusters/create-cluster, o mesmo abaixo

Primeiro, você precisa selecionar o cenário do seu projeto, e atualmente, existem três tipos disponíveis:

  1. Geral (Tipo genérico): Fornece um ambiente mais genérico, adequado para as primeiras etapas do projeto quando as necessidades de recursos específicos são incertas.

  2. Treine (tipo de Treinamento): Projetado para o treinamento e ajuste fino de modelos de aprendizado de máquina. Esta opção oferece recursos adicionais de GPU, maior capacidade de memória e/ou conexões de rede mais rápidas para lidar com essas tarefas computacionais intensivas.

  3. Inferência (tipo de inferência): Projetado para inferência de baixa latência e tarefas de alta carga. No contexto de aprendizado de máquina, inferência refere-se ao uso de modelos treinados para prever ou analisar novos dados e fornecer feedback. Portanto, esta opção concentra-se na otimização da latência e throughput para suportar as necessidades de processamento de dados em tempo real ou quase em tempo real.

A seguir, você precisa escolher o fornecedor para os Clusters de chips. Atualmente, a IO.NET tem parcerias com a Render Network e a rede de mineração do Filecoin, permitindo que os usuários escolham chips da IO.NET ou das outras duas redes como fornecedor de seus Clusters de computação. A IO.NET atua como um agregador (embora, no momento da redação deste texto, o serviço do Filecoin esteja temporariamente offline). Notavelmente, de acordo com a exibição da página, o número de GPUs online disponíveis para a IO.NET é superior a 200.000, enquanto que para a Render Network é superior a 3.700.

Finalmente, você entra na fase de seleção de hardware de chip para os Clusters. Atualmente, o IO.NET lista apenas GPUs para seleção, excluindo CPUs ou iGPUs da Apple (M1, M2, etc.), e as GPUs apresentam principalmente produtos NVIDIA.

Na lista oficial de opções de hardware de GPU disponíveis, com base em dados testados pelo autor naquele dia, o número total de GPUs disponíveis online na rede IO.NET é de 206.001. Desses, o GeForce RTX 4090 tem a maior disponibilidade, com 45.250 unidades, seguido pelo GeForce RTX 3090 Ti, com 30.779 unidades.

Além disso, o chip A100-SXM4-80GB, que é mais eficiente para tarefas de computação de IA como aprendizado de máquina, aprendizado profundo e computação científica (preço de mercado acima de $15,000), possui 7,965 unidades online.

A placa gráfica NVIDIA H100 80GB HBM3, projetada especificamente do zero para IA (preço de mercado acima de $40,000), tem um desempenho de treinamento 3,3 vezes maior que o da A100 e um desempenho de inferência 4,5 vezes maior que o da A100, com um total de 86 unidades online.

Após selecionar o tipo de hardware para Clusters, os usuários também precisam escolher a região, velocidade de comunicação, número de GPUs alugadas e duração do aluguel, entre outros parâmetros.

Finalmente, a IO.NET fornecerá uma fatura com base na seleção abrangente. Por exemplo, na configuração de Clusters do autor:

  • Cenário geral de tarefas
  • 16 chips A100-SXM4-80GB
  • Conexão ultrarrápida
  • Localizado nos EUA
  • Período de locação de 1 semana

A conta total é de $3311.6, com um preço por hora por cartão de $1.232

Em comparação, os preços de aluguel por hora do A100-SXM4-80GB na Amazon Cloud, Google Cloud e Microsoft Azure são, respectivamente, $5.12, $5.07 e $3.67 (fonte de dados: https://cloud-gpus.com/, os preços reais podem variar com base nos detalhes do contrato).

Portanto, puramente em termos de preço, a potência de computação da IO.NET é significativamente mais barata do que a dos fabricantes tradicionais, e as opções de oferta e aquisição são muito flexíveis, facilitando o início.

Condições comerciais

Situação do lado da oferta

Em 4 de abril deste ano, de acordo com dados oficiais, a IO.NET tem um fornecimento total de 371.027 GPUs e 42.321 CPUs no lado do fornecimento. Além disso, a Render Network, como sua parceira, também conectou 9.997 GPUs e 776 CPUs ao fornecimento da rede.

Fonte de dados: https://cloud.io.net/explorer/home, o mesmo abaixo

Na redação deste artigo, 214.387 das GPUs conectadas pela IO.NET estão online, com uma taxa de online de 57,8%. A taxa de online para GPUs da Render Network é de 45,1%.

O que implicam os dados acima do lado da oferta?

Para fornecer uma comparação, vamos apresentar outro projeto de computação distribuída mais antigo, Akash Network, para contrastar. Akash Network lançou sua mainnet tão cedo quanto 2020, focando inicialmente em serviços distribuídos para CPUs e armazenamento. Em junho de 2023, lançou uma testnet para serviços de GPU e foi ao ar com sua mainnet para potência de computação distribuída de GPU em setembro do mesmo ano.

Fonte de dados: https://stats.akash.network/provider-graph/graphics-gpu

De acordo com dados oficiais da Akash, embora o lado da oferta tenha continuado a crescer, o número total de GPUs conectadas à sua rede só atingiu 365 até o momento.

Em termos de volume de fornecimento de GPU, a IO.NET é várias ordens de magnitude maior do que a Akash Network, tornando-se a maior rede de fornecimento na corrida de potência de computação GPU distribuída.

Situação do lado da demanda

No entanto, olhando para o lado da demanda, o IO.NET ainda está nos estágios iniciais de cultivo de mercado, e o volume real de tarefas de computação executadas usando o IO.NET não é grande. A maioria das GPUs online tem uma carga de trabalho de 0%, com apenas quatro tipos de chips - A100 PCIe 80GB K8S, RTX A6000 K8S, RTX A4000 K8S e H100 80GB HBM3 - lidando com tarefas. Exceto pelo A100 PCIe 80GB K8S, a carga de trabalho dos outros três chips é inferior a 20%.

O valor oficial de estresse da rede divulgado no dia é de 0%, indicando que a maior parte do fornecimento de chips está em estado de espera online. Enquanto isso, a IO.NET gerou um total de $586,029 em taxas de serviço, com o custo no último dia totalizando $3,200.

Fonte de dados: https://cloud.io.net/explorer/clusters

A escala dessas taxas de liquidação de rede, tanto em total quanto em volume diário de transações, está na mesma ordem de grandeza que a Akash, embora a maior parte da receita da rede da Akash venha do segmento de CPU, com mais de 20.000 CPUs fornecidas.

Fonte de dados: https://stats.akash.network/

Além disso, a IO.NET divulgou dados sobre tarefas de inferência de IA processadas pela rede; até o momento, ela processou e verificou mais de 230.000 tarefas de inferência, embora a maior parte desse volume tenha sido gerada por projetos patrocinados pela IO.NET, como BC8.AI.

Fonte de dados: https://cloud.io.net/explorer/inferences

Com base nos dados comerciais atuais, a expansão do lado da oferta da IO.NET está progredindo sem problemas, impulsionada pela antecipação de airdrops e de um evento comunitário apelidado de “Ignition”, que rapidamente acumulou uma quantidade significativa de poder de computação de chips de IA. No entanto, a expansão do lado da demanda ainda está em estágios iniciais, com a demanda orgânica atualmente insuficiente. Ainda resta avaliar se a falta atual de demanda se deve ao fato de que a divulgação ao consumidor ainda não começou, ou se a experiência de serviço atual não é estável o suficiente, carecendo assim de adoção generalizada.

Considerando a dificuldade de curto prazo em superar a lacuna no poder de computação de IA, muitos engenheiros e projetos de IA estão buscando soluções alternativas, o que pode despertar interesse em provedores de serviços descentralizados. Além disso, como o IO.NET ainda não iniciou incentivos econômicos e de atividade para o lado da demanda, juntamente com a melhoria gradual da experiência do produto, a correspondência eventual entre oferta e demanda ainda é aguardada com otimismo.

2.3 Antecedentes da Equipe e Financiamento

Situação da equipe

A equipe principal da IO.NET inicialmente se concentrou na negociação quantitativa, desenvolvendo sistemas de negociação quantitativa de nível institucional para ações e criptoativos até junho de 2022. Impulsionada pela necessidade de poder de computação do sistema de back-end, a equipe começou a explorar as possibilidades da computação descentralizada, concentrando-se na redução do custo dos serviços de computação GPU.

Fundador & CEO: Ahmad Shadid, que tem formação em finanças quantitativas e engenharia e também atuou como voluntário na Fundação Ethereum.

CMO e Chief Strategy Officer: Garrison Yang, que se juntou à IO.NET em março deste ano. Anteriormente, ele foi VP de Estratégia e Crescimento na Avalanche e se formou na Universidade da Califórnia, Santa Barbara.

COO: Tory Green, anteriormente COO na Hum Capital e Diretor de Desenvolvimento Corporativo e Estratégia no Fox Mobile Group, formado em Stanford.

De acordo com as informações do LinkedIn, a IO.NET tem sede em Nova Iorque, EUA, com uma filial em São Francisco, e o tamanho da equipe excede 50 membros.

Situação de financiamento

Até o momento, a IO.NET divulgou apenas uma rodada de financiamento, que é a Série A concluída em março deste ano, avaliada em 1 bilhão de dólares. Levantou 30 milhões de dólares liderados pela Hack VC, com outros participantes, incluindo Multicoin Capital, Delphi Digital, Foresight Ventures, Animoca Brands, Continue Capital, Solana Ventures, Aptos, LongHash Ventures, OKX Ventures, Amber Group, SevenX Ventures e ArkStream Capital.

Vale mencionar que talvez devido ao investimento da Fundação Aptos, o projeto BC8.AI, originalmente liquidando contas na Solana, mudou-se para a blockchain L1 de alto desempenho Aptos.

2.4 Estimativa de Avaliação

De acordo com o fundador e CEO da IO.NET, Ahmad Shadid, a empresa lançará seu token no final de abril.

IO.NET tem dois projetos comparáveis para referência de valuation: Render Network e Akash Network, ambos representativos de projetos de computação distribuída.

Existem duas maneiras de extrapolar a faixa de capitalização de mercado da IO.NET: 1. Razão preço/vendas (razão P/S), ou seja, razão capitalização de mercado/receita; 2. Razão capitalização de mercado por chip de rede.

Primeiro, vamos analisar a extrapolação da valoração com base na relação P/S:

Do ponto de vista da relação P/S, Akash pode servir como o limite inferior da faixa de valoração da IO.NET, enquanto Render atua como referência para preços de alta valoração. Sua faixa de FDV (Valoração Total Diluída) varia de 1,67 bilhão de dólares a 5,93 bilhões de dólares.

No entanto, considerando as atualizações do projeto IO.NET, sua narrativa mais quente, menor capitalização de mercado circulante inicial e escala de oferta atualmente maior, a probabilidade de seu FDV exceder o da Render não é pequena.

Em seguida, vamos analisar outra perspectiva de valoração, a "razão mercado-núcleo".

Em um mercado onde a demanda por energia de computação de IA excede a oferta, o elemento mais crucial das redes de energia de computação de IA distribuída é a escala de oferta de GPU. Portanto, podemos usar a “razão mercado-núcleo”, a razão da capitalização de mercado total do projeto para o número de chips na rede, para extrapolar a faixa de valoração possível da IO.NET para os leitores como uma referência de valor de mercado.

)

Se calculado com base na relação mercado-núcleo, com a Render Network como limite superior e a Akash Network como limite inferior, a faixa de FDV para IO.NET está entre US$ 20,6 bilhões e US$ 197,5 bilhões.

Os leitores que estão otimistas em relação ao projeto IO.NET considerariam esta uma estimativa de valor de mercado muito otimista.

Além disso, precisamos considerar que o atual grande número de fichas online da IO.NET pode ser estimulado pelas expectativas de distribuição gratuita e atividades de incentivo, e o número real de fichas online no lado da oferta ainda precisa ser observado após o lançamento oficial do projeto.

Portanto, no geral, a estimativa de valoração do ponto de vista da relação P/S pode ser mais referencial.

IO.NET, como um projeto que combina IA, DePIN e o ecossistema Solana, aguarda com grande expectativa seu desempenho de mercado pós-lançamento.

3. Informações de referência

Aviso Legal:

  1. Este artigo é reproduzido a partir de [ mintventures]. Todos os direitos autorais pertencem ao autor original IO.NET. Se houver objeções a este reenvio, entre em contato com o Gate Learnequipe e eles vão lidar com isso prontamente.
  2. Responsabilidade de Isenção: As opiniões expressas neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipe Gate Learn. Salvo indicação em contrário, copiar, distribuir ou plagiar os artigos traduzidos é proibido.

AI/DePIN/Sol Ecosystem Triple Halo: Analisando o Lançamento do Token IO.NET

Avançado4/17/2024, 6:40:47 AM
Este artigo organizará as informações-chave do projeto de computação descentralizada de IA: o projeto IO.NET, incluindo lógica do produto, situação competitiva e antecedentes do projeto. Também fornece estimativas de valuation, analisando a valuation de diferentes perspectivas através da análise de dados e oferecendo um cálculo de referência para valuation.

Introdução

Em meu artigo anterior, mencionei que, em comparação com os dois ciclos anteriores, este ciclo de mercado de alta de criptomoedas carece de novas narrativas de negócios e ativos influentes. A IA é uma das poucas novas narrativas neste ciclo do campo Web3. Neste artigo, vou combinar o projeto AI quente deste ano, IO.NET, para ponderar sobre as seguintes duas questões:

  1. A necessidade de AI+Web3 nos negócios

  2. A necessidade e os desafios dos serviços de computação distribuída

Além disso, organizarei as informações-chave do projeto representativo em computação distribuída de IA: o projeto IO.NET, incluindo lógica do produto, situação competitiva e antecedentes do projeto. Também explorarei a valuation do projeto.

A parte deste artigo sobre a combinação de IA e Web3 foi inspirada em “The Real Merge” escrito pelo pesquisador da Delphi Digital, Michael Rinko. Algumas opiniões neste artigo são uma digestão e citação desse artigo, e recomendo que os leitores se refiram ao original.

Este artigo representa meus pensamentos provisórios até a sua publicação. A situação pode mudar no futuro, e os pontos de vista têm uma forte natureza subjetiva. Eles também podem conter erros factuais, de dados ou de raciocínio. Por favor, não use isso como conselho de investimento, e eu recebo críticas e discussões dos meus colegas.

A seguir está o texto principal.

1. Lógica de negócios: A Interseção de IA e Web3

1.1 2023: O Novo “Ano Milagroso” Criado pela IA

Olhando para trás na história humana, uma vez que há uma ruptura na tecnologia, tudo desde a vida diária individual, até vários panoramas industriais e até mesmo toda a civilização da humanidade, passa por mudanças revolucionárias.

Existem dois anos significativos na história da humanidade, nomeadamente 1666 e 1905, que agora são referidos como os dois grandes "anos milagrosos" na história da tecnologia.

O ano de 1666 é considerado um ano milagroso porque as realizações científicas de Newton surgiram proeminentemente durante esse tempo. Naquele ano, ele foi pioneiro no ramo da física conhecido como óptica, fundou o ramo matemático do cálculo e derivou a lei da gravidade, uma lei fundamental da ciência natural moderna. Cada uma dessas realizações foi uma contribuição fundamental para o desenvolvimento científico da humanidade para o próximo século, acelerando significativamente o progresso geral da ciência.

O segundo ano milagroso foi 1905, quando Einstein, com apenas 26 anos, publicou quatro artigos seguidos no "Annals of Physics", abordando o efeito fotoelétrico (lançando as bases da mecânica quântica), o movimento browniano (tornando-se uma referência crucial para a análise de processos estocásticos), a teoria da relatividade especial e a equação massa-energia (a famosa fórmula E=MC^2). Em avaliações subsequentes, cada um desses artigos foi considerado superior ao nível médio do Prêmio Nobel de Física (Einstein ele próprio também recebeu o Prêmio Nobel por seu artigo sobre o efeito fotoelétrico), e mais uma vez, a progressão histórica da civilização humana deu vários saltos gigantescos para a frente.

O ano recentemente passado de 2023 provavelmente será chamado de outro "ano milagroso" por causa do ChatGPT.

Consideramos 2023 como mais um “ano milagroso” na história da tecnologia humana, não apenas por causa dos avanços significativos que o GPT fez em compreensão e geração de linguagem natural, mas também porque a humanidade decifrou o padrão de crescimento de modelos de linguagem grandes a partir da evolução do GPT — ou seja, ao expandir os parâmetros do modelo e os dados de treinamento, as capacidades do modelo podem ser exponencialmente aprimoradas — e esse processo ainda não apresenta um gargalo de curto prazo (desde que haja poder computacional suficiente).

Essa capacidade vai muito além do entendimento da linguagem e da geração de diálogo e é amplamente utilizada em diversos campos tecnológicos. Por exemplo, no campo biológico em 2018, a laureada com o Prêmio Nobel de Química, Frances Arnold, disse durante a cerimônia de premiação: 'Hoje, em aplicações práticas, podemos ler, escrever e editar qualquer sequência de DNA, mas ainda não somos capazes de compô-la'. Apenas cinco anos após seu discurso, em 2023, pesquisadores da Universidade de Stanford e da Salesforce Research no Vale do Silício publicaram um artigo na 'Nature Biotechnology'. Eles criaram 1 milhão de novas proteínas do zero usando um grande modelo de linguagem ajustado do GPT3 e identificaram duas proteínas com estruturas distintas, ambas com capacidades antibacterianas, potencialmente se tornando uma nova solução para combater bactérias além dos antibióticos. Isso significa que o gargalo na 'criação' de proteínas foi quebrado com a ajuda da IA.

Além disso, o algoritmo de IA AlphaFold previu as estruturas de quase todos os 214 milhões de proteínas na Terra em 18 meses, um feito que supera as conquistas coletivas de todos os biólogos estruturais da história por centenas de vezes.

Com modelos baseados em IA na biotecnologia, ciência dos materiais, desenvolvimento de medicamentos e outras ciências exatas, bem como nas humanidades, como direito e arte, uma transformação revolucionária é inevitável, e 2023 é realmente o ano inaugural para todos esses avanços.

Como todos sabemos, no século passado, a criação de riqueza humana cresceu exponencialmente, e a rápida maturação da tecnologia de IA sem dúvida acelerará ainda mais esse processo.

Gráfico de tendência do PIB global, fonte de dados: Banco Mundial

1.2 A Integração de IA e Cripto

Para entender fundamentalmente a necessidade de integrar IA e Cripto, podemos começar pelas suas características complementares.

Características Complementares de IA e Cripto

AI possui três atributos:

  1. Aleatoriedade: A AI exibe aleatoriedade; o mecanismo por trás da produção de seu conteúdo é uma caixa preta difícil de replicar e inspecionar, portanto os resultados também são aleatórios.

  2. Intensivo em recursos: AI é uma indústria intensiva em recursos que requer quantidades significativas de energia, chips e poder computacional.

  3. Inteligência semelhante à humana: A IA em breve será capaz de passar no teste de Turing, tornando assim difícil distinguir entre humanos e máquinas.

Em 30 de outubro de 2023, uma equipe de pesquisa da Universidade da Califórnia, San Diego, divulgou os resultados do teste de Turing para GPT-3.5 e GPT-4.0. O GPT-4.0 obteve 41%, apenas 9% abaixo da marca de aprovação de 50%, com os participantes humanos marcando 63%. O significado deste teste de Turing é a porcentagem de pessoas que acreditam que seu parceiro de conversa é humano. Se mais de 50% acreditarem, isso indica que pelo menos metade das pessoas consideram a entidade de conversa como humana, não uma máquina, sendo assim considerada aprovada no teste de Turing.

Enquanto a IA cria nova produtividade inovadora para a humanidade, seus três atributos também trazem desafios significativos para a sociedade humana, incluindo:

  • Como verificar e controlar a aleatoriedade da IA, transformando a aleatoriedade de uma falha em uma vantagem.

  • Como atender às significativas necessidades de energia e potência computacional da IA.

  • Como diferenciar entre humanos e máquinas.

A cripto e a economia blockchain podem muito bem ser o remédio para os desafios trazidos pela IA. A economia criptográfica tem as seguintes três características:

  1. Determinismo: As operações comerciais são baseadas em blockchain, código e contratos inteligentes, com regras e limites claros; a entrada dita o resultado, garantindo alta determinismo.

  2. Alocação eficiente de recursos: A economia cripto construiu um enorme mercado global livre onde o precificação, captação de recursos e circulação de recursos são muito rápidos. Devido à presença de tokens, os incentivos podem acelerar o encontro entre oferta e demanda do mercado, atingindo pontos críticos mais rapidamente.

  3. Sem confiança: Com registros públicos e código aberto, todos podem facilmente verificar operações, levando a um sistema “sem confiança”. Além disso, a tecnologia ZK (Zero-Knowledge) evita a exposição da privacidade durante a verificação.

Vamos ilustrar a complementaridade entre a IA e a economia cripto com três exemplos.

Exemplo A: Abordando Aleatoriedade, Agentes de IA Baseados na Economia Cripto

Agentes de IA, como os da Fetch.AI, são projetados para agir conforme a vontade humana e realizar tarefas em nome dos humanos. Se quisermos que nosso agente de IA lide com uma transação financeira, como “comprar $1000 de BTC”, ele pode enfrentar dois cenários:

  • Cenário Um: É necessário interagir com instituições financeiras tradicionais (como BlackRock) para comprar ETFs de BTC, enfrentando inúmeros problemas de compatibilidade com agentes de IA e instituições centralizadas, como KYC, revisão de documentação, login e verificação de identidade, que atualmente são bastante trabalhosos.

  • Cenário Dois: Ele opera com base na economia cripto nativa, que é muito mais simples; ele poderia executar transações diretamente através do Uniswap ou de uma plataforma de negociação agregada similar usando a assinatura da sua conta, completando a transação de forma rápida e simples para receber WBTC (ou outra forma envolvida de BTC). Basicamente, isso é o que vários bots de negociação já estão fazendo, embora focados exclusivamente na negociação por enquanto. Conforme a IA se integra e evolui, os futuros bots de negociação, sem dúvida, serão capazes de executar intenções de negociação mais complexas, como rastrear as estratégias de negociação e as taxas de sucesso de 100 endereços de dinheiro inteligente na blockchain, executando transações semelhantes com 10% dos meus fundos ao longo de uma semana, e parando e resumindo as razões para o fracasso se os resultados forem insatisfatórios.

A IA tem um desempenho melhor dentro dos sistemas blockchain principalmente devido à clareza das regras cripto econômicas e ao acesso irrestrito ao sistema. Dentro dessas regras definidas, os riscos potenciais trazidos pela aleatoriedade da IA são minimizados. Por exemplo, a IA já superou os humanos em jogos de cartas e videogames devido ao sandbox claro e fechado de regras. No entanto, o progresso na direção autônoma é relativamente lento devido aos desafios do ambiente externo aberto, e somos menos tolerantes à aleatoriedade na resolução de problemas da IA em tais cenários.

Exemplo B: Moldando Recursos Através de Incentivos de Token**

A rede global por trás do BTC, com uma taxa de hash total atual de 576,70 EH/s, supera o poder computacional combinado de qualquer supercomputador de país. Seu desenvolvimento é impulsionado por um incentivo de rede simples e justo.

Tendência de poder de computação da rede BTC, fonte:https://www.coinwarz.com/

Além disso, projetos como o DePIN da Mobile estão tentando moldar um mercado de dois lados para oferta e demanda por meio de incentivos de tokens, com o objetivo de alcançar efeitos de rede. O foco da seguinte discussão neste artigo, IO.NET, é uma plataforma projetada para agregar potência computacional de IA, esperando liberar mais potencial de IA por meio de um modelo de token.

Exemplo C: código aberto, introdução de Provas de Conhecimento Zero (ZK) para diferenciar humanos de máquinas enquanto protege a privacidade

Como um projeto Web3 envolvendo o fundador da OpenAI Sam Altman, o Worldcoin utiliza um dispositivo de hardware chamado Orb, que gera um valor de hash único e anônimo com base na biometria da íris humana através da tecnologia ZK para verificar a identidade e diferenciar humanos de máquinas. No início de março deste ano, o projeto de arte Web3 Drip começou a usar o ID do Worldcoin para verificar usuários humanos reais e distribuir recompensas.

Além disso, a Worldcoin recentemente tornou o código do programa de seu hardware de reconhecimento de íris Orb de código aberto, garantindo a segurança e privacidade dos dados biométricos do usuário.

Em geral, a economia cripto se tornou uma solução potencial significativa para os desafios impostos pela IA à sociedade humana, devido à certeza do código e criptografia, às vantagens da circulação de recursos e captação trazidas pelos mecanismos de Token, e à natureza sem confiança baseada em código aberto e registros públicos.

O desafio mais urgente e comercialmente exigente é a extrema fome por recursos computacionais por produtos de IA, que gira em torno da enorme demanda por chips e poder computacional.

Este também é o principal motivo pelo qual os projetos de computação distribuída lideraram o rastreamento geral de IA neste ciclo de mercado de alta.

A necessidade comercial da computação descentralizada

AI requer recursos computacionais substanciais, tanto para treinar modelos quanto para inferência.

Na prática do treinamento de grandes modelos de linguagem, foi confirmado que, desde que a escala dos parâmetros de dados seja suficientemente grande, novas capacidades surgem que não estavam presentes anteriormente. Cada geração do GPT mostra um salto exponencial em capacidades em comparação com seu antecessor, apoiado por um crescimento exponencial no volume computacional necessário para o treinamento do modelo.

Pesquisa realizada pelo DeepMind e pela Universidade de Stanford mostra que diferentes modelos de linguagem de grande escala, ao enfrentar várias tarefas (cálculo, perguntas e respostas em persa, compreensão da linguagem natural, etc.), têm um desempenho semelhante a respostas aleatórias até que o treinamento atinja menos de 10^22 FLOPs (FLOPs denotam operações de ponto flutuante por segundo, uma medida de desempenho computacional); no entanto, uma vez que a escala de parâmetros ultrapassa esse limiar crítico, o desempenho de qualquer tarefa melhora dramaticamente, independentemente do modelo de linguagem.

Fonte: Capacidades Emergentes de Modelos de Linguagem Grandes

Habilidades Emergentes de Modelos de Linguagem Grandes

É precisamente o princípio de 'realizar milagres com grande poder de computação' e sua verificação prática que levou Sam Altman, o fundador da OpenAI, a propor a arrecadação de 7 trilhões de dólares americanos para construir uma fábrica de chips avançada que é dez vezes maior que a TSMC atual. Espera-se que 1,5 trilhão de dólares seja gasto nesta parte, com os fundos restantes sendo usados para produção de chips e treinamento de modelos.

Além do treinamento de modelos de IA, o processo de inferência dos próprios modelos também requer uma potência de computação substancial, embora menos do que a necessária para o treinamento. Portanto, o desejo por chips e potência de computação tornou-se uma norma entre os concorrentes de IA.

Comparadas aos provedores centralizados de computação de IA como Amazon Web Services, Google Cloud Platform e Azure da Microsoft, as principais propostas de valor da computação de IA distribuída incluem:

  • Acessibilidade: Acesso a chips de computação por meio de serviços em nuvem como AWS, GCP ou Azure geralmente leva semanas, e modelos populares de GPU frequentemente estão em falta. Além disso, para obter potência de computação, os consumidores muitas vezes precisam assinar contratos de longo prazo e inflexíveis com essas grandes empresas. Em contraste, plataformas de computação distribuída podem fornecer opções de hardware flexíveis com maior acessibilidade.
  • Preços mais baixos: Ao utilizar chips ociosos, combinados com subsídios de tokens do protocolo de rede para provedores de chips e potência computacional, as redes de computação distribuída podem oferecer potência computacional mais acessível.
  • Resistência à Censura: Atualmente, chips e suprimentos de computação de ponta são monopolizados por grandes empresas de tecnologia. Além disso, os governos liderados pelos Estados Unidos estão intensificando a fiscalização sobre os serviços de computação de IA. A capacidade de adquirir energia computacional de forma distribuída, flexível e gratuita está se tornando uma demanda clara, que é também uma proposta de valor central das plataformas de serviços de computação baseadas em web3.

Se os combustíveis fósseis foram o sangue vital da era industrial, então o poder de computação provavelmente será o sangue vital da nova era digital inaugurada pela IA, com o fornecimento de poder de computação tornando-se a infraestrutura da era da IA. Assim como as stablecoins se tornaram um ramo robusto da moeda fiduciária na era Web3, será que o mercado de computação distribuída pode se tornar um ramo de rápido crescimento do mercado de computação de IA?

Uma vez que este ainda é um mercado relativamente inicial, tudo ainda está sob observação. No entanto, os seguintes fatores poderiam potencialmente estimular a narrativa ou a adoção de mercado da computação distribuída:

  • Tensão contínua entre oferta e demanda de GPU. A tensão contínua na oferta de GPU pode incentivar alguns desenvolvedores a recorrer a plataformas de computação distribuída.
  • Expansão regulatória. Acesso aos serviços de computação de IA de grandes plataformas de computação em nuvem requer KYC e escrutínio extensivo. Isso pode, em vez disso, encorajar a adoção de plataformas de computação distribuída, especialmente em regiões enfrentando restrições e sanções.
  • Incentivos de preço do Token. Ciclos de mercado de alta e aumento nos preços dos tokens aumentam o valor do subsídio para o lado do fornecimento de GPU, atraindo mais fornecedores para o mercado, aumentando o tamanho do mercado e reduzindo o preço de compra real para os consumidores.

No entanto, os desafios enfrentados pelas plataformas de computação distribuída também são bastante evidentes:

  • Desafios técnicos e de engenharia
  • Problemas de Prova de Trabalho: A computação para modelos de aprendizado profundo, devido à sua estrutura hierárquica onde a saída de cada camada serve como entrada para a próxima, requer a execução de todo o trabalho anterior para verificar a validade da computação. Isso não pode ser simples e efetivamente verificado. Para resolver esse problema, as plataformas de computação distribuída precisam desenvolver novos algoritmos ou utilizar técnicas de verificação aproximada, que podem fornecer garantias probabilísticas da correção do resultado, em vez de certeza absoluta.
  • Desafios de Paralelização: As plataformas de computação distribuída reúnem a longa cauda do fornecimento de chips, o que significa que dispositivos individuais podem oferecer apenas poder de computação limitado. Um único fornecedor de chips dificilmente pode concluir as tarefas de treinamento ou inferência de um modelo de IA de forma independente em um curto período, então as tarefas devem ser decompostas e distribuídas por meio de paralelização para encurtar o tempo total de conclusão. A paralelização também enfrenta inevitavelmente questões como como as tarefas são decompostas (especialmente tarefas complexas de aprendizado profundo), dependência de dados e custos adicionais de comunicação entre dispositivos.
  • Questões de Proteção de Privacidade: Como garantir que os dados e modelos da parte compradora não sejam expostos aos destinatários da tarefa?

Desafios de conformidade regulatória

  • Devido à natureza não licenciada dos mercados de abastecimento e aquisição dupla das plataformas de computação distribuída, eles podem atrair certos clientes como pontos de venda. Por outro lado, eles podem se tornar alvos de regulamentação governamental à medida que os padrões regulatórios de IA são aprimorados. Além disso, alguns fornecedores de GPU podem se preocupar se seus recursos de computação alugados estão sendo fornecidos a empresas ou indivíduos sancionados.

Em geral, os consumidores de plataformas de computação distribuída são principalmente desenvolvedores profissionais ou pequenas e médias instituições, ao contrário de investidores de criptomoedas e NFT que diferem em suas expectativas quanto à estabilidade e continuidade dos serviços oferecidos pelo protocolo. O preço pode não ser o principal motivo em sua tomada de decisão. Por enquanto, parece que as plataformas de computação distribuída ainda têm um longo caminho a percorrer para ganhar a aprovação desses usuários.

Em seguida, organizaremos e analisaremos as informações do projeto para um novo projeto de computação distribuída neste ciclo, IO.NET, e estimaremos sua possível avaliação de mercado após a listagem, com base nos concorrentes de mercado atuais nos setores de IA e computação distribuída.

2. Plataforma de Computação AI Distribuída: IO.NETPlataforma de Computação AI Distribuída: IO.NET

2.1 Posicionamento do Projeto

IO.NET é uma rede de computação descentralizada que estabeleceu um mercado bilateral centrado em chips. O lado da oferta é composto por chips (principalmente GPUs, mas também CPUs e iGPUs da Apple) distribuídos globalmente, enquanto o lado da demanda é composto por engenheiros de inteligência artificial que buscam realizar treinamento de modelos de IA ou tarefas de inferência.

Conforme declarado no site oficial da IO.NET:

Nossa Missão

Reunindo um milhão de GPUs em uma DePIN - rede de infraestrutura física descentralizada.

A missão é integrar milhões de GPUs em sua rede DePIN.

Comparado aos provedores de serviços de computação em nuvem de IA existentes, a IO.NET enfatiza os seguintes pontos-chave de venda:

  • Combinação flexível: os engenheiros de IA podem selecionar livremente e combinar os chips de que precisam para formar “Clusters” e concluir suas tarefas de computação.
  • Implantação Rápida: A implantação pode ser concluída em segundos, sem as semanas de aprovação e espera normalmente exigidas por provedores centralizados como AWS.
  • Serviço econômico: O custo dos serviços é 90% menor do que o dos fornecedores tradicionais.

Além disso, IO.NET planeja lançar serviços como uma loja modelo de IA no futuro.

2.2 Mecanismo do Produto e Dados de Negócios

Mecanismo do Produto e Experiência de Implantação

Similar ao Amazon Cloud, Google Cloud e Alibaba Cloud, o serviço de computação fornecido pela IO.NET é chamado de IO Cloud. IO Cloud é uma rede distribuída e descentralizada de chips capaz de executar código de aprendizado de máquina baseado em Python e executar programas de IA e aprendizado de máquina.

O módulo básico de negócios da IO Cloud é chamado de “Clusters”. Clusters são grupos de GPUs que podem coordenar autonomamente para completar tarefas de computação. Engenheiros de inteligência artificial podem personalizar seus Clusters desejados com base em suas necessidades.

A interface de produtos da IO.NET é altamente amigável ao usuário. Se você precisa implantar seus próprios Clusters de chips para concluir tarefas de computação de IA, você pode começar a configurar seus Clusters de chips desejados assim que entrar na página de produtos Clusters em seu site.

Informações da página: https://cloud.io.net/cloud/clusters/create-cluster, o mesmo abaixo

Primeiro, você precisa selecionar o cenário do seu projeto, e atualmente, existem três tipos disponíveis:

  1. Geral (Tipo genérico): Fornece um ambiente mais genérico, adequado para as primeiras etapas do projeto quando as necessidades de recursos específicos são incertas.

  2. Treine (tipo de Treinamento): Projetado para o treinamento e ajuste fino de modelos de aprendizado de máquina. Esta opção oferece recursos adicionais de GPU, maior capacidade de memória e/ou conexões de rede mais rápidas para lidar com essas tarefas computacionais intensivas.

  3. Inferência (tipo de inferência): Projetado para inferência de baixa latência e tarefas de alta carga. No contexto de aprendizado de máquina, inferência refere-se ao uso de modelos treinados para prever ou analisar novos dados e fornecer feedback. Portanto, esta opção concentra-se na otimização da latência e throughput para suportar as necessidades de processamento de dados em tempo real ou quase em tempo real.

A seguir, você precisa escolher o fornecedor para os Clusters de chips. Atualmente, a IO.NET tem parcerias com a Render Network e a rede de mineração do Filecoin, permitindo que os usuários escolham chips da IO.NET ou das outras duas redes como fornecedor de seus Clusters de computação. A IO.NET atua como um agregador (embora, no momento da redação deste texto, o serviço do Filecoin esteja temporariamente offline). Notavelmente, de acordo com a exibição da página, o número de GPUs online disponíveis para a IO.NET é superior a 200.000, enquanto que para a Render Network é superior a 3.700.

Finalmente, você entra na fase de seleção de hardware de chip para os Clusters. Atualmente, o IO.NET lista apenas GPUs para seleção, excluindo CPUs ou iGPUs da Apple (M1, M2, etc.), e as GPUs apresentam principalmente produtos NVIDIA.

Na lista oficial de opções de hardware de GPU disponíveis, com base em dados testados pelo autor naquele dia, o número total de GPUs disponíveis online na rede IO.NET é de 206.001. Desses, o GeForce RTX 4090 tem a maior disponibilidade, com 45.250 unidades, seguido pelo GeForce RTX 3090 Ti, com 30.779 unidades.

Além disso, o chip A100-SXM4-80GB, que é mais eficiente para tarefas de computação de IA como aprendizado de máquina, aprendizado profundo e computação científica (preço de mercado acima de $15,000), possui 7,965 unidades online.

A placa gráfica NVIDIA H100 80GB HBM3, projetada especificamente do zero para IA (preço de mercado acima de $40,000), tem um desempenho de treinamento 3,3 vezes maior que o da A100 e um desempenho de inferência 4,5 vezes maior que o da A100, com um total de 86 unidades online.

Após selecionar o tipo de hardware para Clusters, os usuários também precisam escolher a região, velocidade de comunicação, número de GPUs alugadas e duração do aluguel, entre outros parâmetros.

Finalmente, a IO.NET fornecerá uma fatura com base na seleção abrangente. Por exemplo, na configuração de Clusters do autor:

  • Cenário geral de tarefas
  • 16 chips A100-SXM4-80GB
  • Conexão ultrarrápida
  • Localizado nos EUA
  • Período de locação de 1 semana

A conta total é de $3311.6, com um preço por hora por cartão de $1.232

Em comparação, os preços de aluguel por hora do A100-SXM4-80GB na Amazon Cloud, Google Cloud e Microsoft Azure são, respectivamente, $5.12, $5.07 e $3.67 (fonte de dados: https://cloud-gpus.com/, os preços reais podem variar com base nos detalhes do contrato).

Portanto, puramente em termos de preço, a potência de computação da IO.NET é significativamente mais barata do que a dos fabricantes tradicionais, e as opções de oferta e aquisição são muito flexíveis, facilitando o início.

Condições comerciais

Situação do lado da oferta

Em 4 de abril deste ano, de acordo com dados oficiais, a IO.NET tem um fornecimento total de 371.027 GPUs e 42.321 CPUs no lado do fornecimento. Além disso, a Render Network, como sua parceira, também conectou 9.997 GPUs e 776 CPUs ao fornecimento da rede.

Fonte de dados: https://cloud.io.net/explorer/home, o mesmo abaixo

Na redação deste artigo, 214.387 das GPUs conectadas pela IO.NET estão online, com uma taxa de online de 57,8%. A taxa de online para GPUs da Render Network é de 45,1%.

O que implicam os dados acima do lado da oferta?

Para fornecer uma comparação, vamos apresentar outro projeto de computação distribuída mais antigo, Akash Network, para contrastar. Akash Network lançou sua mainnet tão cedo quanto 2020, focando inicialmente em serviços distribuídos para CPUs e armazenamento. Em junho de 2023, lançou uma testnet para serviços de GPU e foi ao ar com sua mainnet para potência de computação distribuída de GPU em setembro do mesmo ano.

Fonte de dados: https://stats.akash.network/provider-graph/graphics-gpu

De acordo com dados oficiais da Akash, embora o lado da oferta tenha continuado a crescer, o número total de GPUs conectadas à sua rede só atingiu 365 até o momento.

Em termos de volume de fornecimento de GPU, a IO.NET é várias ordens de magnitude maior do que a Akash Network, tornando-se a maior rede de fornecimento na corrida de potência de computação GPU distribuída.

Situação do lado da demanda

No entanto, olhando para o lado da demanda, o IO.NET ainda está nos estágios iniciais de cultivo de mercado, e o volume real de tarefas de computação executadas usando o IO.NET não é grande. A maioria das GPUs online tem uma carga de trabalho de 0%, com apenas quatro tipos de chips - A100 PCIe 80GB K8S, RTX A6000 K8S, RTX A4000 K8S e H100 80GB HBM3 - lidando com tarefas. Exceto pelo A100 PCIe 80GB K8S, a carga de trabalho dos outros três chips é inferior a 20%.

O valor oficial de estresse da rede divulgado no dia é de 0%, indicando que a maior parte do fornecimento de chips está em estado de espera online. Enquanto isso, a IO.NET gerou um total de $586,029 em taxas de serviço, com o custo no último dia totalizando $3,200.

Fonte de dados: https://cloud.io.net/explorer/clusters

A escala dessas taxas de liquidação de rede, tanto em total quanto em volume diário de transações, está na mesma ordem de grandeza que a Akash, embora a maior parte da receita da rede da Akash venha do segmento de CPU, com mais de 20.000 CPUs fornecidas.

Fonte de dados: https://stats.akash.network/

Além disso, a IO.NET divulgou dados sobre tarefas de inferência de IA processadas pela rede; até o momento, ela processou e verificou mais de 230.000 tarefas de inferência, embora a maior parte desse volume tenha sido gerada por projetos patrocinados pela IO.NET, como BC8.AI.

Fonte de dados: https://cloud.io.net/explorer/inferences

Com base nos dados comerciais atuais, a expansão do lado da oferta da IO.NET está progredindo sem problemas, impulsionada pela antecipação de airdrops e de um evento comunitário apelidado de “Ignition”, que rapidamente acumulou uma quantidade significativa de poder de computação de chips de IA. No entanto, a expansão do lado da demanda ainda está em estágios iniciais, com a demanda orgânica atualmente insuficiente. Ainda resta avaliar se a falta atual de demanda se deve ao fato de que a divulgação ao consumidor ainda não começou, ou se a experiência de serviço atual não é estável o suficiente, carecendo assim de adoção generalizada.

Considerando a dificuldade de curto prazo em superar a lacuna no poder de computação de IA, muitos engenheiros e projetos de IA estão buscando soluções alternativas, o que pode despertar interesse em provedores de serviços descentralizados. Além disso, como o IO.NET ainda não iniciou incentivos econômicos e de atividade para o lado da demanda, juntamente com a melhoria gradual da experiência do produto, a correspondência eventual entre oferta e demanda ainda é aguardada com otimismo.

2.3 Antecedentes da Equipe e Financiamento

Situação da equipe

A equipe principal da IO.NET inicialmente se concentrou na negociação quantitativa, desenvolvendo sistemas de negociação quantitativa de nível institucional para ações e criptoativos até junho de 2022. Impulsionada pela necessidade de poder de computação do sistema de back-end, a equipe começou a explorar as possibilidades da computação descentralizada, concentrando-se na redução do custo dos serviços de computação GPU.

Fundador & CEO: Ahmad Shadid, que tem formação em finanças quantitativas e engenharia e também atuou como voluntário na Fundação Ethereum.

CMO e Chief Strategy Officer: Garrison Yang, que se juntou à IO.NET em março deste ano. Anteriormente, ele foi VP de Estratégia e Crescimento na Avalanche e se formou na Universidade da Califórnia, Santa Barbara.

COO: Tory Green, anteriormente COO na Hum Capital e Diretor de Desenvolvimento Corporativo e Estratégia no Fox Mobile Group, formado em Stanford.

De acordo com as informações do LinkedIn, a IO.NET tem sede em Nova Iorque, EUA, com uma filial em São Francisco, e o tamanho da equipe excede 50 membros.

Situação de financiamento

Até o momento, a IO.NET divulgou apenas uma rodada de financiamento, que é a Série A concluída em março deste ano, avaliada em 1 bilhão de dólares. Levantou 30 milhões de dólares liderados pela Hack VC, com outros participantes, incluindo Multicoin Capital, Delphi Digital, Foresight Ventures, Animoca Brands, Continue Capital, Solana Ventures, Aptos, LongHash Ventures, OKX Ventures, Amber Group, SevenX Ventures e ArkStream Capital.

Vale mencionar que talvez devido ao investimento da Fundação Aptos, o projeto BC8.AI, originalmente liquidando contas na Solana, mudou-se para a blockchain L1 de alto desempenho Aptos.

2.4 Estimativa de Avaliação

De acordo com o fundador e CEO da IO.NET, Ahmad Shadid, a empresa lançará seu token no final de abril.

IO.NET tem dois projetos comparáveis para referência de valuation: Render Network e Akash Network, ambos representativos de projetos de computação distribuída.

Existem duas maneiras de extrapolar a faixa de capitalização de mercado da IO.NET: 1. Razão preço/vendas (razão P/S), ou seja, razão capitalização de mercado/receita; 2. Razão capitalização de mercado por chip de rede.

Primeiro, vamos analisar a extrapolação da valoração com base na relação P/S:

Do ponto de vista da relação P/S, Akash pode servir como o limite inferior da faixa de valoração da IO.NET, enquanto Render atua como referência para preços de alta valoração. Sua faixa de FDV (Valoração Total Diluída) varia de 1,67 bilhão de dólares a 5,93 bilhões de dólares.

No entanto, considerando as atualizações do projeto IO.NET, sua narrativa mais quente, menor capitalização de mercado circulante inicial e escala de oferta atualmente maior, a probabilidade de seu FDV exceder o da Render não é pequena.

Em seguida, vamos analisar outra perspectiva de valoração, a "razão mercado-núcleo".

Em um mercado onde a demanda por energia de computação de IA excede a oferta, o elemento mais crucial das redes de energia de computação de IA distribuída é a escala de oferta de GPU. Portanto, podemos usar a “razão mercado-núcleo”, a razão da capitalização de mercado total do projeto para o número de chips na rede, para extrapolar a faixa de valoração possível da IO.NET para os leitores como uma referência de valor de mercado.

)

Se calculado com base na relação mercado-núcleo, com a Render Network como limite superior e a Akash Network como limite inferior, a faixa de FDV para IO.NET está entre US$ 20,6 bilhões e US$ 197,5 bilhões.

Os leitores que estão otimistas em relação ao projeto IO.NET considerariam esta uma estimativa de valor de mercado muito otimista.

Além disso, precisamos considerar que o atual grande número de fichas online da IO.NET pode ser estimulado pelas expectativas de distribuição gratuita e atividades de incentivo, e o número real de fichas online no lado da oferta ainda precisa ser observado após o lançamento oficial do projeto.

Portanto, no geral, a estimativa de valoração do ponto de vista da relação P/S pode ser mais referencial.

IO.NET, como um projeto que combina IA, DePIN e o ecossistema Solana, aguarda com grande expectativa seu desempenho de mercado pós-lançamento.

3. Informações de referência

Aviso Legal:

  1. Este artigo é reproduzido a partir de [ mintventures]. Todos os direitos autorais pertencem ao autor original IO.NET. Se houver objeções a este reenvio, entre em contato com o Gate Learnequipe e eles vão lidar com isso prontamente.
  2. Responsabilidade de Isenção: As opiniões expressas neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipe Gate Learn. Salvo indicação em contrário, copiar, distribuir ou plagiar os artigos traduzidos é proibido.
Start Now
Sign up and get a
$100
Voucher!