Remodelando os Limites da Computação: A Situação Atual e as Perspectivas do Poder de Computação Descentralizada

intermediário1/4/2024, 5:09:37 PM
Com o desenvolvimento da IA e de outros campos, muitas indústrias alcançarão grandes mudanças na lógica subjacente, o poder de computação subirá para uma posição mais importante, e vários aspectos relacionados a ele também causarão extensa exploração na indústria. As redes de poder de computação descentralizadas têm suas próprias vantagens podem reduzir o risco de centralização e também podem servir como um complemento ao poder de computação centralizado.

Poder de computação em demanda

Desde o lançamento de “Avatar” em 2009, iniciou a primeira batalha de filmes 3D com imagens reais incomparáveis. Como grande contribuinte por trás disso, a Weta Digital contribuiu para os efeitos visuais de renderização de todo o filme. Em sua fazenda de servidores de 10.000 pés quadrados na Nova Zelândia, seu cluster de computadores processava até 1,4 milhão de tarefas por dia e processava 8GB de dados por segundo. Mesmo assim, continuou rodando por mais de um mês antes que todas as renderizações fossem concluídas. Trabalho.

Com a implantação em larga escala de máquinas e investimento de custos, “Avatar” alcançou conquistas excepcionais na história do cinema.

Em 3 de janeiro do mesmo ano, Satoshi Nakamoto minerou o bloco gênese do Bitcoin em um pequeno servidor em Helsinque, Finlândia, e recebeu uma recompensa de bloco de 50 BTC. Desde o primeiro dia da criptomoeda, o poder de computação desempenhou um papel muito importante na indústria.

A cadeia mais longa não apenas serve como prova da sequência de eventos testemunhados, mas como prova de que ela veio do maior pool de poder de CPU.

—— Whitepaper do Bitcoin

No contexto do mecanismo de consenso de PoW, a contribuição do poder de computação fornece garantia para a segurança da cadeia. Ao mesmo tempo, o hashrate continuamente crescente também pode provar o investimento contínuo dos mineradores em poder de computação e expectativas de renda positivas. A demanda real da indústria por poder de computação também promoveu grandemente o desenvolvimento dos fabricantes de chips. Os chips das máquinas de mineração passaram por estágios de desenvolvimento, como CPU, GPU, FPGA e ASIC. Atualmente, as máquinas de mineração de Bitcoin são geralmente chips baseados na tecnologia ASIC (Circuito Integrado Específico de Aplicativo) que podem executar eficientemente algoritmos específicos, como SHA-256. Os enormes benefícios econômicos trazidos pelo Bitcoin também aumentaram a demanda por poder de computação na mineração relacionada. No entanto, equipamentos excessivamente especializados e efeitos de cluster causaram um efeito sifão entre seus próprios participantes, sejam eles mineradores ou fabricantes de máquinas de mineração. Todos eles mostram uma tendência de desenvolvimento concentrado intensivo em capital.

Com o advento dos contratos inteligentes do Ethereum, sua programabilidade, composabilidade e outras características formaram uma ampla gama de aplicações, especialmente no campo do DeFi, o que fez o preço do ETH subir o tempo todo, enquanto ainda está no consenso PoW. A dificuldade de mineração do Ethereum nesta fase também tem aumentado. Os requisitos de poder de computação dos mineradores para as máquinas de mineração de Ethereum também estão aumentando dia após dia. No entanto, ao contrário do Bitcoin, que usa chips ASIC, o Ethereum precisa usar uma unidade de processamento gráfico (GPU) para cálculos de mineração, como a série Nvidia RTX. Dessa forma, é mais adequado para hardware de computação geral participar. Isso até mesmo desencadeou a competição de mercado por GPUs, o que fez com que as placas de vídeo de alta qualidade no mercado ficassem fora de estoque.

Quando chegou o dia 30 de novembro de 2022, o ChatGPT desenvolvido pela OpenAI também demonstrou a significância revolucionária no campo da IA. Os usuários ficaram maravilhados com a nova experiência proporcionada pelo ChatGPT, que pode completar várias tarefas propostas pelos usuários com base no contexto, assim como uma pessoa real. Na nova versão lançada em setembro deste ano, a IA generativa que adiciona recursos multimodais como voz e imagens trouxe a experiência do usuário para um estágio mais avançado.

Mas, correspondendo, o GPT4 tem mais de um trilhão de parâmetros envolvidos no pré-treinamento do modelo e ajuste fino subsequente. Essas são as duas partes com maior demanda de poder de computação no campo de IA. Na fase de pré-treinamento, uma grande quantidade de texto é estudada para dominar padrões de linguagem, gramática e contexto associado. Isso permite que ele entenda padrões de linguagem para gerar texto coerente e contextual com base na entrada. Após o pré-treinamento, o GPT4 é ajustado para se adaptar melhor a tipos específicos de conteúdo ou estilos e melhorar o desempenho e especialização em cenários de demanda específicos.

Uma vez que a arquitetura Transformer adotada pelo GPT introduz o mecanismo de autoatenção, esse mecanismo permite que o modelo preste atenção simultaneamente na relação entre diferentes partes da sequência ao processar a sequência de entrada. Portanto, a demanda por poder de computação aumentou consideravelmente. Especialmente ao processar sequências longas, é necessária uma grande quantidade de computação em paralelo e armazenamento de um grande número de pontuações de atenção, o que também requer uma grande quantidade de memória e capacidades de transmissão de dados em alta velocidade. O LLM mainstream atual com a mesma arquitetura tem uma enorme demanda por GPUs de alto desempenho, o que também mostra que o custo de investimento no campo de grandes modelos de IA é enorme. De acordo com estimativas relevantes da SemiAnalysis, o custo de treinamento de um modelo GPT4 chega a US$ 63 milhões. Para alcançar uma boa experiência interativa, o GPT4 também precisa investir muito poder de computação em suas operações diárias para manter suas operações diárias.

Classificação de hardware de computação

Aqui precisamos entender os principais tipos de hardware de poder de computação atuais. Quais cenários de demanda de poder de computação podem ser tratados pela CPU, GPU, FPGA e ASIC, respectivamente.

• A partir do diagrama arquitetônico da CPU e GPU, a GPU contém mais núcleos, o que permite à GPU processar várias tarefas de computação ao mesmo tempo. A computação paralela tem capacidades de processamento mais fortes e é adequada para processar uma grande quantidade de tarefas de computação, por isso, nos campos de aprendizado de máquina e aprendizado profundo tem sido amplamente utilizado. A CPU tem um número menor de núcleos e é adequada para processar um cálculo complexo único ou uma tarefa de sequência mais intensivamente, mas não é tão eficiente quanto a GPU ao processar tarefas de computação paralela. Em tarefas de renderização e tarefas de computação de redes neurais, uma grande quantidade de cálculos repetidos e cálculos paralelos geralmente precisam ser processados, então a GPU é mais eficiente e adequada do que a CPU neste aspecto.

• FPGA (Field Programmable Gate Array) é um circuito semi-customizado no campo do circuito integrado específico de aplicação (ASIC). Um conjunto composto por um grande número de pequenas unidades de processamento, o FPGA pode ser entendido como um chip integrado de circuito lógico digital programável. A aplicação atual se concentra principalmente na aceleração de hardware, e outras tarefas ainda são concluídas na CPU, permitindo que o FPGA e a CPU trabalhem juntos.

• O ASIC (Circuito Integrado Específico de Aplicação) refere-se a um circuito integrado projetado para atender aos requisitos específicos do usuário e às necessidades de sistemas eletrônicos específicos. Comparado aos circuitos integrados de uso geral, o ASIC tem as vantagens de tamanho menor, menor consumo de energia, maior confiabilidade, melhor desempenho, confidencialidade aprimorada e custo reduzido durante a produção em massa. Portanto, no cenário inerente à mineração de Bitcoin, que apenas precisa realizar tarefas de computação específicas, o ASIC é o mais adequado. O Google também lançou uma TPU (Unidade de Processamento Tensorial) especialmente projetada para aprendizado de máquina como um tipo de ASIC, mas atualmente ela fornece principalmente serviços de aluguel de poder de computação através do Google Cloud.

• ASIC em comparação com FPGA, ASIC é um circuito integrado específico de aplicação e o circuito integrado é fixado uma vez que o projeto é concluído. FPGA integra um grande número de portas de circuito digital básicas e memórias no array. Os desenvolvedores podem definir o circuito programando a configuração do FPGA, e essa programação é substituível. No entanto, dada a velocidade de atualização atual no campo da IA, chips personalizados ou semi-personalizados não podem ser ajustados e reconfigurados a tempo de executar diferentes tarefas ou se adaptar a novos algoritmos. Portanto, a adaptabilidade geral e a flexibilidade da GPU fazem com que ela brilhe no campo da IA. Os principais fabricantes de GPUs também fizeram otimizações relevantes para a adaptação de GPUs no campo da IA. Tomando a Nvidia como exemplo, ela lançou a série Tesla e GPUs de arquitetura Ampere projetadas especificamente para aprendizado profundo. Esses hardwares contêm unidades de hardware (Tensor Cores) otimizadas para cálculos de aprendizado de máquina e aprendizado profundo, que permitem que a GPU tenha um desempenho mais eficiente e eficiente. Baixo consumo de energia para realizar a propagação direta e retroativa de redes neurais. Além disso, uma ampla gama de ferramentas e bibliotecas são fornecidas para apoiar o desenvolvimento de IA, como CUDA (Compute Unified Device Architecture) para ajudar os desenvolvedores a usar GPUs para computação paralela de uso geral.

Poder de computação descentralizado

O poder de computação descentralizado refere-se ao método de fornecer poder de processamento por meio de recursos de computação distribuída. Este approach descentralizado é geralmente combinado com tecnologia blockchain ou tecnologia de registro distribuído semelhante para agrupar recursos de computação ociosos e distribuí-los para usuários necessitados, a fim de alcançar compartilhamento de recursos, transações e gerenciamento.

Antecedentes

• Forte demanda de hardware de computação. A prosperidade da economia criativa trouxe o processamento de mídia digital para uma era de criação universal. A demanda por renderização de efeitos visuais aumentou, e surgiram estúdios terceirizados de renderização especializada, plataformas de renderização em nuvem e outras formas. No entanto, essa abordagem também requer que você invista muito dinheiro por conta própria na aquisição inicial de hardware de poder de computação.

• O hardware de poder de computação vem de uma única fonte. O desenvolvimento do campo de IA intensificou a demanda por hardware de computação. As principais empresas de fabricação de GPU do mundo, lideradas pela Nvidia, ganharam muito dinheiro nessa competição de poder de computação de IA. Sua capacidade de fornecimento até se tornou um fator-chave que pode restringir o desenvolvimento de uma determinada indústria. O valor de mercado da Nvidia também ultrapassou pela primeira vez um trilhão de dólares americanos este ano.

• A provisão de poder de computação ainda depende principalmente de plataformas de nuvem centralizadas. Quem realmente está se beneficiando da alta demanda por computação de alto desempenho são os fornecedores de nuvem centralizados representados pela AWS. Eles lançaram serviços de computação em nuvem com GPU. Tomando o atual AWS p4d.24xlarge como exemplo, alugar um servidor HPC especializado em ML, contendo oito GPUs Nvidia A100 de 40GB, custa US$32,8 por hora, e sua margem de lucro bruto é estimada em 61%. Isso também fez com que outros gigantes de nuvem corressem para participar e acumular hardware para obter o máximo de vantagem possível nas fases iniciais do desenvolvimento da indústria.

• Fatores políticos, intervenção humana e outros levam a um desenvolvimento desigual da indústria. Desigualdade Não é difícil ver que a propriedade e concentração de GPUs estão mais inclinadas para organizações e países com fundos e tecnologia abundantes, e dependem de clusters de computação de alto desempenho. Isso fez com que os poderes de fabricação de chips e semicondutores representados pelos Estados Unidos também implementem restrições mais rigorosas na exportação de chips de IA para enfraquecer as capacidades de pesquisa de outros países no campo da inteligência artificial geral.

• A alocação de recursos de poder de computação é muito concentrada. A iniciativa de desenvolvimento no campo de IA está nas mãos de algumas empresas gigantes. Atualmente, os gigantes representados pela OpenAI têm a bênção da Microsoft, e atrás deles estão os ricos recursos de computação fornecidos pela Microsoft Azure. Isso faz com que a OpenAI, a cada lançamento de novos produtos, seja um remodelamento e integração da indústria de IA atual, tornando difícil para outras equipes acompanharem no campo de modelos grandes.

Diante dos altos custos de hardware, restrições geográficas e desenvolvimento industrial desigual, existem outras soluções?

A plataforma de poder de computação descentralizada emergiu conforme as necessidades do tempo. O objetivo da plataforma é criar um mercado aberto, transparente e autoregulado para utilizar de forma mais eficaz os recursos de computação globais.

análise adaptativa

  1. Lado do fornecimento de poder de computação descentralizado

Os atuais preços elevados de hardware e controle artificial do lado da oferta têm proporcionado o solo para a construção de redes de poder de computação descentralizado.

• Do ponto de vista da composição do poder de computação descentralizado, diversos provedores de poder de computação variam de PCs pessoais a pequenos Equipamentos de Internet das Coisas, sendo tão grandes quanto centros de dados, IDCs, etc., e o poder de computação acumulado pode fornecer soluções de computação mais flexíveis e escaláveis, ajudando assim mais desenvolvedores de IA e organizações a fazerem um uso mais eficaz de recursos limitados. O compartilhamento descentralizado de poder de computação pode ser alcançado por meio do poder de computação ocioso de indivíduos ou organizações. No entanto, a disponibilidade e estabilidade desse poder de computação estão sujeitas às restrições de uso dos usuários ou ao limite superior de compartilhamento.

• Uma possível fonte potencial de poder de computação de alta qualidade é o poder de computação fornecido diretamente pela transformação de minas relevantes após o Ethereum ser convertido em PoS. recursos humanos. Tome a Coreweave, o principal provedor integrado de poder de computação de GPU nos Estados Unidos, como exemplo. Anteriormente, era a maior fazenda de mineração de Ethereum na América do Norte e é baseada em uma infraestrutura completa que foi construída. Além disso, as máquinas de mineração de Ethereum aposentadas também contêm um grande número de GPUs inativas. Estima-se que havia cerca de 27 milhões de GPUs trabalhando online no auge da era de mineração de Ethereum. Revitalizar essas GPUs também pode se tornar uma parte importante da rede descentralizada de poder de computação.

  1. Demanda de poder de computação descentralizada

• Do ponto de vista da implementação técnica, recursos de computação descentralizados são usados na renderização de gráficos e transcodificação de vídeo. Tais cálculos são complexos. Para tarefas de baixo nível, o sistema econômico que combina tecnologia blockchain e web3 pode trazer incentivos de renda tangíveis aos participantes da rede e acumular modelos de negócios eficazes e grupos de clientes, garantindo a transmissão segura de dados de informação. O campo de IA envolve uma grande quantidade de computação paralela, comunicação e sincronização entre nós, e possui requisitos muito altos em relação ao ambiente de rede e outros aspectos. Portanto, as aplicações atuais também estão focadas em ajustes finos, inferência, AIGC e em outras camadas de aplicação mais avançadas.

• Do ponto de vista da lógica de negócios, um mercado que simplesmente compra e vende poder de computação carece de imaginação, e a indústria só pode lidar com a cadeia de suprimentos e precificação. Estratégias, mas essas são justamente as vantagens dos serviços centralizados de nuvem. Portanto, o teto do mercado é baixo e não há espaço para mais imaginação, então também podemos ver que as redes que originalmente faziam renderização gráfica simples estão buscando a transformação em IA. Por exemplo, Render Network e 2023 Q1 também lançaram um conjunto de ferramentas nativas integradas de Estabilidade AI, que os usuários podem Esta função introduz operações de Difusão Estável, e o negócio não se limita mais a operações de renderização, mas se expande para o campo de IA.

• Do ponto de vista dos principais grupos de clientes, é óbvio que os grandes clientes do lado B preferirão serviços de nuvem integrados centralizados. Eles geralmente têm orçamentos suficientes, estão geralmente envolvidos no desenvolvimento de grandes modelos subjacentes e requerem uma forma mais eficiente de agregação de poder de computação; portanto, o poder de computação descentralizado atende mais às equipes de desenvolvimento de pequeno e médio porte ou indivíduos, e está principalmente envolvido no ajuste fino do modelo. Ou desenvolvimento de camada de aplicação, que não tem altos requisitos sobre a forma de poder de computação fornecida. Eles são mais sensíveis ao preço. O poder de computação descentralizado pode reduzir fundamentalmente o investimento inicial, então o custo geral de uso também é mais baixo. Com base no custo previamente calculado pela Gensyn, o poder de computação é convertido em valor equivalente fornecido pelo V100. Poder de computação, o preço da Gensyn é apenas US$0,4 por hora, o que é 80% menor do que o poder de computação equivalente da AWS de US$2 por hora. Embora esta parte do negócio não represente a maioria dos gastos na indústria atual, à medida que os cenários de uso de aplicações de IA continuam a se expandir, o tamanho do mercado futuro não pode ser subestimado.

• Do ponto de vista dos serviços fornecidos, pode-se constatar que o projeto atual se assemelha mais ao conceito de uma plataforma de nuvem descentralizada, fornecendo um conjunto completo de gestão desde o desenvolvimento, implantação, online, distribuição e transação. A vantagem disso é atrair desenvolvedores, que podem usar componentes de ferramentas relevantes para simplificar o desenvolvimento e a implantação e melhorar a eficiência; ao mesmo tempo, pode atrair usuários para usar esses produtos de aplicativos completos na plataforma, formando um fosso ecológico baseado em sua própria rede de poder de computação. Mas isso também coloca requisitos mais elevados para as operações do projeto. Como atrair desenvolvedores e usuários excelentes e alcançar a retenção é especialmente importante.

Aplicações em diferentes campos

1. Processamento de Mídia Digital

Render Network Uma plataforma de renderização global baseada em blockchain, cujo objetivo é ajudar os criadores com criatividade digital. Permite que os criadores estendam o trabalho de renderização de GPU para nós GPU globais sob demanda, fornecendo uma capacidade de renderização mais rápida e mais barata. Depois que o criador confirma os resultados da renderização, a rede blockchain envia o código para o nó. Recompensas em moeda. Em comparação com os métodos tradicionais de implementação de efeitos visuais, estabelecer infraestrutura de renderização local ou adicionar despesas de GPU correspondentes a serviços de nuvem comprados requer um investimento inicial elevado.

Desde sua fundação em 2017, os usuários da Render Network renderizaram mais de 16 milhões de quadros e quase 500.000 cenas na rede. Os dados divulgados do Render Network 2023 Q2 também podem mostrar que o número de trabalhos de quadro de renderização e o número de nós ativos estão aumentando. Além disso, a Render Network e o 2023 Q1 também lançaram um conjunto de ferramentas de IA de estabilidade nativamente integrado. Os usuários podem usar essa função para introduzir operações de Difusão Estável, e o negócio não está mais limitado a operações de renderização e se expande para o campo de IA.

Livepeer fornece serviços de transcodificação de vídeo em tempo real para criadores através de participantes da rede que contribuem com seu próprio poder de computação GPU e largura de banda. Os transmissores podem completar a transcodificação de vários tipos de vídeos enviando vídeos para o Livepeer e distribuí-los para vários usuários finais, realizando assim a disseminação de conteúdo de vídeo. Ao mesmo tempo, você pode facilmente pagar em moeda legal para obter serviços como transcodificação de vídeo, transmissão e armazenamento.

Na rede Livepeer, qualquer pessoa pode contribuir com recursos pessoais de computador (CPU, GPU e largura de banda) para transcodificar e distribuir vídeos para ganhar taxas. O token nativo (LPT) representa os direitos e interesses dos participantes da rede. O número de tokens prometidos determina o peso do nó na rede, afetando assim suas chances de obter tarefas de transcodificação. Ao mesmo tempo, o LPT também desempenha um papel orientando os nós a completar tarefas atribuídas com segurança, confiabilidade e rapidez.

2. Exposição AIarea

No ecossistema atual no campo da IA, os principais players podem ser grosseiramente divididos em:

Começando pelo lado da demanda, há diferenças óbvias nas demandas por poder computacional em diferentes estágios da indústria. Tomando como exemplo o desenvolvimento do modelo subjacente, o processo de pré-treinamento requer computação paralela muito alta, armazenamento, comunicação, etc. para garantir a eficácia dos resultados do treinamento. Isso requer um cluster de grande poder de computação para concluir tarefas relacionadas. Atualmente, a principal oferta de poder computacional depende principalmente de salas de computadores autoconstruídas e plataformas centralizadas de serviços em nuvem. Nos estágios subsequentes de ajuste fino do modelo, raciocínio em tempo real e desenvolvimento de aplicativos, os requisitos para computação paralela e comunicação entre nós não são tão altos. É exatamente aqui que o poder de computação descentralizada pode mostrar todo o seu potencial.

Olhando para os projetos que ganharam considerável popularidade anteriormente, a Akash Nework fez algumas tentativas na direção do poder de computação descentralizado:

A Akash Network combina diferentes componentes de tecnologia para permitir que os usuários implantem e gerenciem aplicativos de forma eficiente e flexível em um ambiente de nuvem descentralizada. Os usuários podem usar a tecnologia de contêiner Docker para empacotar aplicativos e, em seguida, implantá-los e dimensioná-los por meio do Kubernetes por meio do CloudMOS nos recursos de nuvem fornecidos pela Akash. A Akash usa uma abordagem de "leilão reverso", o que torna o preço mais baixo do que os serviços de nuvem tradicionais.

A Akash Network também anunciou em agosto deste ano que lançaria a sexta atualização de sua rede principal, incorporando suporte para GPUs em seus serviços de nuvem e fornecendo poder de computação para mais equipes de IA no futuro.

Gensyn.ai, um projeto que atraiu muita atenção no setor este ano, foi liderado pela a16z e completou um financiamento Série A de US$ 43 milhões. A julgar pelos documentos divulgados até o momento, o projeto é uma rede principal baseada no protocolo L1 PoS da rede Polkadot, com foco em deep learning. O objetivo é expandir os limites do aprendizado de máquina criando uma rede global de clusters de supercomputação. Essa rede conecta dispositivos que vão desde data centers com excesso de poder de computação até PCs que podem contribuir com GPUs pessoais, ASICs personalizados e SoCs.

Para resolver alguns dos problemas atualmente existentes no poder de computação descentralizado, a Gensyn se baseia em alguns novos resultados de pesquisas teóricas na academia:

  1. Adote a prova de aprendizado probabilística, ou seja, use metadados do processo de otimização baseado em gradiente para construir provas da execução da tarefa relevante para acelerar o processo de verificação;

  2. O Protocolo de Pinpoint baseado em gráficos, GPP, serve como uma ponte, conectando a execução offline de DNN (Rede Neural Profunda) e o framework de contrato inteligente na blockchain, resolvendo as inconsistências que facilmente ocorrem entre dispositivos de hardware e garantindo a consistência da verificação.

  3. Um método de incentivo semelhante ao Truebit, por meio de uma combinação de apostas e punições, estabelece um sistema de incentivo que permite que participantes economicamente racionais realizem honestamente as tarefas atribuídas. O mecanismo utiliza criptografia e métodos de teoria dos jogos. Esse sistema de verificação é essencial para manter a integridade e confiabilidade de grandes cálculos de treinamento de modelos.

No entanto, vale ressaltar que o conteúdo acima é mais sobre a resolução do nível de verificação de conclusão da tarefa, em vez do poder de computação descentralizado para alcançar funções de treinamento do modelo como destaque principal no documento do projeto, especialmente sobre computação paralela e otimização distribuída de comunicação, sincronização e outros problemas entre hardware. Atualmente, afetado pela latência de rede (Latência) e largura de banda (Bandwidth), a comunicação frequente entre nós aumentará o tempo de iteração e os custos de comunicação. Isso não apenas não trará otimização real, mas reduzirá a eficiência do treinamento. A abordagem da Gensyn para lidar com a comunicação de nós e a computação paralela no treinamento de modelos pode envolver protocolos de coordenação complexos para gerenciar a natureza distribuída da computação. No entanto, sem informações técnicas mais detalhadas ou uma compreensão mais profunda de seus métodos específicos, o mecanismo exato pelo qual a Gensyn alcança o treinamento de modelos em grande escala por meio de sua rede não será verdadeiramente revelado até que o projeto seja lançado.

Também prestamos atenção ao protocolo Edge Matrix Computing (EMC) que utiliza tecnologia blockchain para aplicar poder de computação à IA, renderização e pesquisa científica, acesso de e-commerce de IA e outros tipos de cenários, tarefas são distribuídas para diferentes nós de poder de computação através de computação elástica. Este método não apenas melhora a eficiência do poder de computação, mas também garante a segurança da transmissão de dados. Ao mesmo tempo, fornece um mercado de poder de computação onde os usuários podem acessar e trocar recursos de computação. É conveniente para os desenvolvedores implantar e alcançar os usuários mais rapidamente. Combinado com a forma econômica do Web3, os provedores de poder de computação também podem obter benefícios reais e subsídios de partes do protocolo com base no uso real dos usuários, e os desenvolvedores de IA também podem obter custos mais baixos de raciocínio e renderização. Abaixo está uma visão geral de seus principais componentes e funções:

Também se espera que sejam lançados produtos RWA baseados em GPU. A chave para isso é revitalizar o hardware que estava originalmente fixo na sala de computadores e dividir e circular na forma de RWA para obter liquidez adicional. GPU de alta qualidade pode ser usado como ativo subjacente de RWA. A razão é que o poder de computação pode ser considerado como moeda forte no campo de IA. Atualmente, há uma contradição óbvia entre oferta e demanda, e essa contradição não pode ser resolvida a curto prazo, então o preço da GPU é relativamente estável.

Além disso, implementar clusters de poder de computação por meio da implantação de salas de computadores IDC também é uma parte fundamental do protocolo EMC. Isso não apenas permite que as GPUs operem em um ambiente unificado, mas também lida de forma mais eficiente com tarefas relacionadas de grande escala que consomem poder de computação, como pré-treinamento de modelos. Isso atende às necessidades de usuários profissionais. Ao mesmo tempo, a sala de computadores IDC também pode hospedar e executar centralmente um grande número de GPUs para garantir as especificações técnicas do mesmo tipo de hardware de alta qualidade, facilitando sua embalagem no mercado como produtos RWA e abrindo novas ideias para DeFi.

Nos últimos anos, a comunidade acadêmica também desenvolveu novas teorias técnicas e práticas de aplicação no campo da computação de borda. Como um complemento e otimização da computação em nuvem, a computação de borda é parte da inteligência artificial que está acelerando da nuvem para a borda e para dispositivos IoT cada vez menores. Esses dispositivos IoT são frequentemente pequenos em tamanho, então a aprendizagem de máquina leve é favorecida para lidar com questões como consumo de energia, latência e precisão.

A Network3 é construída criando uma camada de IA dedicada Layer2 para fornecer aos desenvolvedores de IA ao redor do mundo otimização e compressão de algoritmos de modelos de IA, aprendizado federado, computação de borda e computação de privacidade. Fornecer serviços para ajudá-los a treinar ou verificar modelos de forma rápida, conveniente e eficiente. Utilizando um grande número de dispositivos de hardware IoT inteligentes, pode-se centrar em modelos pequenos para fornecer o poder de computação correspondente, e ao construir um TEE (Ambiente de Execução Confiável), os usuários podem concluir o treinamento relevante apenas fazendo upload de gradientes do modelo para garantir a privacidade e segurança dos dados relacionados ao usuário.

Para resumir

• Com o desenvolvimento da IA e de outros campos, muitas indústrias passarão por grandes mudanças em sua lógica subjacente, o poder de computação subirá para uma posição mais importante, e vários aspectos relacionados a ele também causarão extensa exploração na indústria. As redes de poder de computação descentralizadas têm suas próprias vantagens podem reduzir o risco de centralização e também podem servir como um complemento ao poder de computação centralizado.

• E as equipes no campo de IA também estão em uma encruzilhada. A escolha de usar modelos grandes treinados para construir seus próprios produtos ou participar do treinamento de grandes modelos em suas respectivas regiões é principalmente dialética. Portanto, o poder de computação descentralizado pode atender às diferentes necessidades de negócios. Essa tendência de desenvolvimento é bem-vinda e, com a atualização da tecnologia e iteração de algoritmos, inevitavelmente haverá avanços em áreas-chave.

• Não tenha medo, apenas descubra aos poucos.

Referência

https://www.semianalysis.com/p/gpt-4-architecture-infrastructure

https://medium.com/render-token/render-network-q2-highlights-part-2-network-statistics-ac5aa6bfa4e5

https://know.rendernetwork.com/

https://medium.com/livepeer-blog/uma-visão-geral-da-rede-livepeer-e-lpt-44985f9321ff

https://www.youtube.com/watch?v=FDA9wqZmsY8

https://mirror.xyz/1kx.eth/q0s9RCH43JCDq8Z2w2Zo6S5SYcFt9ZQaRITzR4G7a_k

https://mirror.xyz/gensyn.eth/_K2v2uuFZdNnsHxVL3Bjrs4GORu3COCMJZJi7_MxByo

https://docs.gensyn.ai/litepaper/#solution

https://a16zcrypto.com/posts/announcement/investing-in-gensyn/

https://www.pinecone.io/learn/estrategias-de-fragmentacao/

https://akash.network/blog/a-rapida-evolucao-do-cenario-de-ia/

https://aws.amazon.com/cn/blogs/compute/amazon-ec2-p4d-instances-deep-dive/

https://manual.edgematrix.pro/emc-network/o-que-e-emc-e-poc

https://arstechnica.com/gaming/2022/09/the-end-of-ethereum-mining-could-be-a-bonanza-for-gpu-shoppers/

Disclaimer:

  1. Este artigo é reproduzido a partir de [PANews]. Todos os direitos autorais pertencem ao autor original [Future3 Campus]. Se houver objeções a esta reimpressão, entre em contato com o Gate Aprenderequipe e eles resolverão prontamente.
  2. Isenção de responsabilidade: As opiniões expressas neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipe do Gate Learn. A menos que mencionado, copiar, distribuir ou plagiar os artigos traduzidos é proibido.

Remodelando os Limites da Computação: A Situação Atual e as Perspectivas do Poder de Computação Descentralizada

intermediário1/4/2024, 5:09:37 PM
Com o desenvolvimento da IA e de outros campos, muitas indústrias alcançarão grandes mudanças na lógica subjacente, o poder de computação subirá para uma posição mais importante, e vários aspectos relacionados a ele também causarão extensa exploração na indústria. As redes de poder de computação descentralizadas têm suas próprias vantagens podem reduzir o risco de centralização e também podem servir como um complemento ao poder de computação centralizado.

Poder de computação em demanda

Desde o lançamento de “Avatar” em 2009, iniciou a primeira batalha de filmes 3D com imagens reais incomparáveis. Como grande contribuinte por trás disso, a Weta Digital contribuiu para os efeitos visuais de renderização de todo o filme. Em sua fazenda de servidores de 10.000 pés quadrados na Nova Zelândia, seu cluster de computadores processava até 1,4 milhão de tarefas por dia e processava 8GB de dados por segundo. Mesmo assim, continuou rodando por mais de um mês antes que todas as renderizações fossem concluídas. Trabalho.

Com a implantação em larga escala de máquinas e investimento de custos, “Avatar” alcançou conquistas excepcionais na história do cinema.

Em 3 de janeiro do mesmo ano, Satoshi Nakamoto minerou o bloco gênese do Bitcoin em um pequeno servidor em Helsinque, Finlândia, e recebeu uma recompensa de bloco de 50 BTC. Desde o primeiro dia da criptomoeda, o poder de computação desempenhou um papel muito importante na indústria.

A cadeia mais longa não apenas serve como prova da sequência de eventos testemunhados, mas como prova de que ela veio do maior pool de poder de CPU.

—— Whitepaper do Bitcoin

No contexto do mecanismo de consenso de PoW, a contribuição do poder de computação fornece garantia para a segurança da cadeia. Ao mesmo tempo, o hashrate continuamente crescente também pode provar o investimento contínuo dos mineradores em poder de computação e expectativas de renda positivas. A demanda real da indústria por poder de computação também promoveu grandemente o desenvolvimento dos fabricantes de chips. Os chips das máquinas de mineração passaram por estágios de desenvolvimento, como CPU, GPU, FPGA e ASIC. Atualmente, as máquinas de mineração de Bitcoin são geralmente chips baseados na tecnologia ASIC (Circuito Integrado Específico de Aplicativo) que podem executar eficientemente algoritmos específicos, como SHA-256. Os enormes benefícios econômicos trazidos pelo Bitcoin também aumentaram a demanda por poder de computação na mineração relacionada. No entanto, equipamentos excessivamente especializados e efeitos de cluster causaram um efeito sifão entre seus próprios participantes, sejam eles mineradores ou fabricantes de máquinas de mineração. Todos eles mostram uma tendência de desenvolvimento concentrado intensivo em capital.

Com o advento dos contratos inteligentes do Ethereum, sua programabilidade, composabilidade e outras características formaram uma ampla gama de aplicações, especialmente no campo do DeFi, o que fez o preço do ETH subir o tempo todo, enquanto ainda está no consenso PoW. A dificuldade de mineração do Ethereum nesta fase também tem aumentado. Os requisitos de poder de computação dos mineradores para as máquinas de mineração de Ethereum também estão aumentando dia após dia. No entanto, ao contrário do Bitcoin, que usa chips ASIC, o Ethereum precisa usar uma unidade de processamento gráfico (GPU) para cálculos de mineração, como a série Nvidia RTX. Dessa forma, é mais adequado para hardware de computação geral participar. Isso até mesmo desencadeou a competição de mercado por GPUs, o que fez com que as placas de vídeo de alta qualidade no mercado ficassem fora de estoque.

Quando chegou o dia 30 de novembro de 2022, o ChatGPT desenvolvido pela OpenAI também demonstrou a significância revolucionária no campo da IA. Os usuários ficaram maravilhados com a nova experiência proporcionada pelo ChatGPT, que pode completar várias tarefas propostas pelos usuários com base no contexto, assim como uma pessoa real. Na nova versão lançada em setembro deste ano, a IA generativa que adiciona recursos multimodais como voz e imagens trouxe a experiência do usuário para um estágio mais avançado.

Mas, correspondendo, o GPT4 tem mais de um trilhão de parâmetros envolvidos no pré-treinamento do modelo e ajuste fino subsequente. Essas são as duas partes com maior demanda de poder de computação no campo de IA. Na fase de pré-treinamento, uma grande quantidade de texto é estudada para dominar padrões de linguagem, gramática e contexto associado. Isso permite que ele entenda padrões de linguagem para gerar texto coerente e contextual com base na entrada. Após o pré-treinamento, o GPT4 é ajustado para se adaptar melhor a tipos específicos de conteúdo ou estilos e melhorar o desempenho e especialização em cenários de demanda específicos.

Uma vez que a arquitetura Transformer adotada pelo GPT introduz o mecanismo de autoatenção, esse mecanismo permite que o modelo preste atenção simultaneamente na relação entre diferentes partes da sequência ao processar a sequência de entrada. Portanto, a demanda por poder de computação aumentou consideravelmente. Especialmente ao processar sequências longas, é necessária uma grande quantidade de computação em paralelo e armazenamento de um grande número de pontuações de atenção, o que também requer uma grande quantidade de memória e capacidades de transmissão de dados em alta velocidade. O LLM mainstream atual com a mesma arquitetura tem uma enorme demanda por GPUs de alto desempenho, o que também mostra que o custo de investimento no campo de grandes modelos de IA é enorme. De acordo com estimativas relevantes da SemiAnalysis, o custo de treinamento de um modelo GPT4 chega a US$ 63 milhões. Para alcançar uma boa experiência interativa, o GPT4 também precisa investir muito poder de computação em suas operações diárias para manter suas operações diárias.

Classificação de hardware de computação

Aqui precisamos entender os principais tipos de hardware de poder de computação atuais. Quais cenários de demanda de poder de computação podem ser tratados pela CPU, GPU, FPGA e ASIC, respectivamente.

• A partir do diagrama arquitetônico da CPU e GPU, a GPU contém mais núcleos, o que permite à GPU processar várias tarefas de computação ao mesmo tempo. A computação paralela tem capacidades de processamento mais fortes e é adequada para processar uma grande quantidade de tarefas de computação, por isso, nos campos de aprendizado de máquina e aprendizado profundo tem sido amplamente utilizado. A CPU tem um número menor de núcleos e é adequada para processar um cálculo complexo único ou uma tarefa de sequência mais intensivamente, mas não é tão eficiente quanto a GPU ao processar tarefas de computação paralela. Em tarefas de renderização e tarefas de computação de redes neurais, uma grande quantidade de cálculos repetidos e cálculos paralelos geralmente precisam ser processados, então a GPU é mais eficiente e adequada do que a CPU neste aspecto.

• FPGA (Field Programmable Gate Array) é um circuito semi-customizado no campo do circuito integrado específico de aplicação (ASIC). Um conjunto composto por um grande número de pequenas unidades de processamento, o FPGA pode ser entendido como um chip integrado de circuito lógico digital programável. A aplicação atual se concentra principalmente na aceleração de hardware, e outras tarefas ainda são concluídas na CPU, permitindo que o FPGA e a CPU trabalhem juntos.

• O ASIC (Circuito Integrado Específico de Aplicação) refere-se a um circuito integrado projetado para atender aos requisitos específicos do usuário e às necessidades de sistemas eletrônicos específicos. Comparado aos circuitos integrados de uso geral, o ASIC tem as vantagens de tamanho menor, menor consumo de energia, maior confiabilidade, melhor desempenho, confidencialidade aprimorada e custo reduzido durante a produção em massa. Portanto, no cenário inerente à mineração de Bitcoin, que apenas precisa realizar tarefas de computação específicas, o ASIC é o mais adequado. O Google também lançou uma TPU (Unidade de Processamento Tensorial) especialmente projetada para aprendizado de máquina como um tipo de ASIC, mas atualmente ela fornece principalmente serviços de aluguel de poder de computação através do Google Cloud.

• ASIC em comparação com FPGA, ASIC é um circuito integrado específico de aplicação e o circuito integrado é fixado uma vez que o projeto é concluído. FPGA integra um grande número de portas de circuito digital básicas e memórias no array. Os desenvolvedores podem definir o circuito programando a configuração do FPGA, e essa programação é substituível. No entanto, dada a velocidade de atualização atual no campo da IA, chips personalizados ou semi-personalizados não podem ser ajustados e reconfigurados a tempo de executar diferentes tarefas ou se adaptar a novos algoritmos. Portanto, a adaptabilidade geral e a flexibilidade da GPU fazem com que ela brilhe no campo da IA. Os principais fabricantes de GPUs também fizeram otimizações relevantes para a adaptação de GPUs no campo da IA. Tomando a Nvidia como exemplo, ela lançou a série Tesla e GPUs de arquitetura Ampere projetadas especificamente para aprendizado profundo. Esses hardwares contêm unidades de hardware (Tensor Cores) otimizadas para cálculos de aprendizado de máquina e aprendizado profundo, que permitem que a GPU tenha um desempenho mais eficiente e eficiente. Baixo consumo de energia para realizar a propagação direta e retroativa de redes neurais. Além disso, uma ampla gama de ferramentas e bibliotecas são fornecidas para apoiar o desenvolvimento de IA, como CUDA (Compute Unified Device Architecture) para ajudar os desenvolvedores a usar GPUs para computação paralela de uso geral.

Poder de computação descentralizado

O poder de computação descentralizado refere-se ao método de fornecer poder de processamento por meio de recursos de computação distribuída. Este approach descentralizado é geralmente combinado com tecnologia blockchain ou tecnologia de registro distribuído semelhante para agrupar recursos de computação ociosos e distribuí-los para usuários necessitados, a fim de alcançar compartilhamento de recursos, transações e gerenciamento.

Antecedentes

• Forte demanda de hardware de computação. A prosperidade da economia criativa trouxe o processamento de mídia digital para uma era de criação universal. A demanda por renderização de efeitos visuais aumentou, e surgiram estúdios terceirizados de renderização especializada, plataformas de renderização em nuvem e outras formas. No entanto, essa abordagem também requer que você invista muito dinheiro por conta própria na aquisição inicial de hardware de poder de computação.

• O hardware de poder de computação vem de uma única fonte. O desenvolvimento do campo de IA intensificou a demanda por hardware de computação. As principais empresas de fabricação de GPU do mundo, lideradas pela Nvidia, ganharam muito dinheiro nessa competição de poder de computação de IA. Sua capacidade de fornecimento até se tornou um fator-chave que pode restringir o desenvolvimento de uma determinada indústria. O valor de mercado da Nvidia também ultrapassou pela primeira vez um trilhão de dólares americanos este ano.

• A provisão de poder de computação ainda depende principalmente de plataformas de nuvem centralizadas. Quem realmente está se beneficiando da alta demanda por computação de alto desempenho são os fornecedores de nuvem centralizados representados pela AWS. Eles lançaram serviços de computação em nuvem com GPU. Tomando o atual AWS p4d.24xlarge como exemplo, alugar um servidor HPC especializado em ML, contendo oito GPUs Nvidia A100 de 40GB, custa US$32,8 por hora, e sua margem de lucro bruto é estimada em 61%. Isso também fez com que outros gigantes de nuvem corressem para participar e acumular hardware para obter o máximo de vantagem possível nas fases iniciais do desenvolvimento da indústria.

• Fatores políticos, intervenção humana e outros levam a um desenvolvimento desigual da indústria. Desigualdade Não é difícil ver que a propriedade e concentração de GPUs estão mais inclinadas para organizações e países com fundos e tecnologia abundantes, e dependem de clusters de computação de alto desempenho. Isso fez com que os poderes de fabricação de chips e semicondutores representados pelos Estados Unidos também implementem restrições mais rigorosas na exportação de chips de IA para enfraquecer as capacidades de pesquisa de outros países no campo da inteligência artificial geral.

• A alocação de recursos de poder de computação é muito concentrada. A iniciativa de desenvolvimento no campo de IA está nas mãos de algumas empresas gigantes. Atualmente, os gigantes representados pela OpenAI têm a bênção da Microsoft, e atrás deles estão os ricos recursos de computação fornecidos pela Microsoft Azure. Isso faz com que a OpenAI, a cada lançamento de novos produtos, seja um remodelamento e integração da indústria de IA atual, tornando difícil para outras equipes acompanharem no campo de modelos grandes.

Diante dos altos custos de hardware, restrições geográficas e desenvolvimento industrial desigual, existem outras soluções?

A plataforma de poder de computação descentralizada emergiu conforme as necessidades do tempo. O objetivo da plataforma é criar um mercado aberto, transparente e autoregulado para utilizar de forma mais eficaz os recursos de computação globais.

análise adaptativa

  1. Lado do fornecimento de poder de computação descentralizado

Os atuais preços elevados de hardware e controle artificial do lado da oferta têm proporcionado o solo para a construção de redes de poder de computação descentralizado.

• Do ponto de vista da composição do poder de computação descentralizado, diversos provedores de poder de computação variam de PCs pessoais a pequenos Equipamentos de Internet das Coisas, sendo tão grandes quanto centros de dados, IDCs, etc., e o poder de computação acumulado pode fornecer soluções de computação mais flexíveis e escaláveis, ajudando assim mais desenvolvedores de IA e organizações a fazerem um uso mais eficaz de recursos limitados. O compartilhamento descentralizado de poder de computação pode ser alcançado por meio do poder de computação ocioso de indivíduos ou organizações. No entanto, a disponibilidade e estabilidade desse poder de computação estão sujeitas às restrições de uso dos usuários ou ao limite superior de compartilhamento.

• Uma possível fonte potencial de poder de computação de alta qualidade é o poder de computação fornecido diretamente pela transformação de minas relevantes após o Ethereum ser convertido em PoS. recursos humanos. Tome a Coreweave, o principal provedor integrado de poder de computação de GPU nos Estados Unidos, como exemplo. Anteriormente, era a maior fazenda de mineração de Ethereum na América do Norte e é baseada em uma infraestrutura completa que foi construída. Além disso, as máquinas de mineração de Ethereum aposentadas também contêm um grande número de GPUs inativas. Estima-se que havia cerca de 27 milhões de GPUs trabalhando online no auge da era de mineração de Ethereum. Revitalizar essas GPUs também pode se tornar uma parte importante da rede descentralizada de poder de computação.

  1. Demanda de poder de computação descentralizada

• Do ponto de vista da implementação técnica, recursos de computação descentralizados são usados na renderização de gráficos e transcodificação de vídeo. Tais cálculos são complexos. Para tarefas de baixo nível, o sistema econômico que combina tecnologia blockchain e web3 pode trazer incentivos de renda tangíveis aos participantes da rede e acumular modelos de negócios eficazes e grupos de clientes, garantindo a transmissão segura de dados de informação. O campo de IA envolve uma grande quantidade de computação paralela, comunicação e sincronização entre nós, e possui requisitos muito altos em relação ao ambiente de rede e outros aspectos. Portanto, as aplicações atuais também estão focadas em ajustes finos, inferência, AIGC e em outras camadas de aplicação mais avançadas.

• Do ponto de vista da lógica de negócios, um mercado que simplesmente compra e vende poder de computação carece de imaginação, e a indústria só pode lidar com a cadeia de suprimentos e precificação. Estratégias, mas essas são justamente as vantagens dos serviços centralizados de nuvem. Portanto, o teto do mercado é baixo e não há espaço para mais imaginação, então também podemos ver que as redes que originalmente faziam renderização gráfica simples estão buscando a transformação em IA. Por exemplo, Render Network e 2023 Q1 também lançaram um conjunto de ferramentas nativas integradas de Estabilidade AI, que os usuários podem Esta função introduz operações de Difusão Estável, e o negócio não se limita mais a operações de renderização, mas se expande para o campo de IA.

• Do ponto de vista dos principais grupos de clientes, é óbvio que os grandes clientes do lado B preferirão serviços de nuvem integrados centralizados. Eles geralmente têm orçamentos suficientes, estão geralmente envolvidos no desenvolvimento de grandes modelos subjacentes e requerem uma forma mais eficiente de agregação de poder de computação; portanto, o poder de computação descentralizado atende mais às equipes de desenvolvimento de pequeno e médio porte ou indivíduos, e está principalmente envolvido no ajuste fino do modelo. Ou desenvolvimento de camada de aplicação, que não tem altos requisitos sobre a forma de poder de computação fornecida. Eles são mais sensíveis ao preço. O poder de computação descentralizado pode reduzir fundamentalmente o investimento inicial, então o custo geral de uso também é mais baixo. Com base no custo previamente calculado pela Gensyn, o poder de computação é convertido em valor equivalente fornecido pelo V100. Poder de computação, o preço da Gensyn é apenas US$0,4 por hora, o que é 80% menor do que o poder de computação equivalente da AWS de US$2 por hora. Embora esta parte do negócio não represente a maioria dos gastos na indústria atual, à medida que os cenários de uso de aplicações de IA continuam a se expandir, o tamanho do mercado futuro não pode ser subestimado.

• Do ponto de vista dos serviços fornecidos, pode-se constatar que o projeto atual se assemelha mais ao conceito de uma plataforma de nuvem descentralizada, fornecendo um conjunto completo de gestão desde o desenvolvimento, implantação, online, distribuição e transação. A vantagem disso é atrair desenvolvedores, que podem usar componentes de ferramentas relevantes para simplificar o desenvolvimento e a implantação e melhorar a eficiência; ao mesmo tempo, pode atrair usuários para usar esses produtos de aplicativos completos na plataforma, formando um fosso ecológico baseado em sua própria rede de poder de computação. Mas isso também coloca requisitos mais elevados para as operações do projeto. Como atrair desenvolvedores e usuários excelentes e alcançar a retenção é especialmente importante.

Aplicações em diferentes campos

1. Processamento de Mídia Digital

Render Network Uma plataforma de renderização global baseada em blockchain, cujo objetivo é ajudar os criadores com criatividade digital. Permite que os criadores estendam o trabalho de renderização de GPU para nós GPU globais sob demanda, fornecendo uma capacidade de renderização mais rápida e mais barata. Depois que o criador confirma os resultados da renderização, a rede blockchain envia o código para o nó. Recompensas em moeda. Em comparação com os métodos tradicionais de implementação de efeitos visuais, estabelecer infraestrutura de renderização local ou adicionar despesas de GPU correspondentes a serviços de nuvem comprados requer um investimento inicial elevado.

Desde sua fundação em 2017, os usuários da Render Network renderizaram mais de 16 milhões de quadros e quase 500.000 cenas na rede. Os dados divulgados do Render Network 2023 Q2 também podem mostrar que o número de trabalhos de quadro de renderização e o número de nós ativos estão aumentando. Além disso, a Render Network e o 2023 Q1 também lançaram um conjunto de ferramentas de IA de estabilidade nativamente integrado. Os usuários podem usar essa função para introduzir operações de Difusão Estável, e o negócio não está mais limitado a operações de renderização e se expande para o campo de IA.

Livepeer fornece serviços de transcodificação de vídeo em tempo real para criadores através de participantes da rede que contribuem com seu próprio poder de computação GPU e largura de banda. Os transmissores podem completar a transcodificação de vários tipos de vídeos enviando vídeos para o Livepeer e distribuí-los para vários usuários finais, realizando assim a disseminação de conteúdo de vídeo. Ao mesmo tempo, você pode facilmente pagar em moeda legal para obter serviços como transcodificação de vídeo, transmissão e armazenamento.

Na rede Livepeer, qualquer pessoa pode contribuir com recursos pessoais de computador (CPU, GPU e largura de banda) para transcodificar e distribuir vídeos para ganhar taxas. O token nativo (LPT) representa os direitos e interesses dos participantes da rede. O número de tokens prometidos determina o peso do nó na rede, afetando assim suas chances de obter tarefas de transcodificação. Ao mesmo tempo, o LPT também desempenha um papel orientando os nós a completar tarefas atribuídas com segurança, confiabilidade e rapidez.

2. Exposição AIarea

No ecossistema atual no campo da IA, os principais players podem ser grosseiramente divididos em:

Começando pelo lado da demanda, há diferenças óbvias nas demandas por poder computacional em diferentes estágios da indústria. Tomando como exemplo o desenvolvimento do modelo subjacente, o processo de pré-treinamento requer computação paralela muito alta, armazenamento, comunicação, etc. para garantir a eficácia dos resultados do treinamento. Isso requer um cluster de grande poder de computação para concluir tarefas relacionadas. Atualmente, a principal oferta de poder computacional depende principalmente de salas de computadores autoconstruídas e plataformas centralizadas de serviços em nuvem. Nos estágios subsequentes de ajuste fino do modelo, raciocínio em tempo real e desenvolvimento de aplicativos, os requisitos para computação paralela e comunicação entre nós não são tão altos. É exatamente aqui que o poder de computação descentralizada pode mostrar todo o seu potencial.

Olhando para os projetos que ganharam considerável popularidade anteriormente, a Akash Nework fez algumas tentativas na direção do poder de computação descentralizado:

A Akash Network combina diferentes componentes de tecnologia para permitir que os usuários implantem e gerenciem aplicativos de forma eficiente e flexível em um ambiente de nuvem descentralizada. Os usuários podem usar a tecnologia de contêiner Docker para empacotar aplicativos e, em seguida, implantá-los e dimensioná-los por meio do Kubernetes por meio do CloudMOS nos recursos de nuvem fornecidos pela Akash. A Akash usa uma abordagem de "leilão reverso", o que torna o preço mais baixo do que os serviços de nuvem tradicionais.

A Akash Network também anunciou em agosto deste ano que lançaria a sexta atualização de sua rede principal, incorporando suporte para GPUs em seus serviços de nuvem e fornecendo poder de computação para mais equipes de IA no futuro.

Gensyn.ai, um projeto que atraiu muita atenção no setor este ano, foi liderado pela a16z e completou um financiamento Série A de US$ 43 milhões. A julgar pelos documentos divulgados até o momento, o projeto é uma rede principal baseada no protocolo L1 PoS da rede Polkadot, com foco em deep learning. O objetivo é expandir os limites do aprendizado de máquina criando uma rede global de clusters de supercomputação. Essa rede conecta dispositivos que vão desde data centers com excesso de poder de computação até PCs que podem contribuir com GPUs pessoais, ASICs personalizados e SoCs.

Para resolver alguns dos problemas atualmente existentes no poder de computação descentralizado, a Gensyn se baseia em alguns novos resultados de pesquisas teóricas na academia:

  1. Adote a prova de aprendizado probabilística, ou seja, use metadados do processo de otimização baseado em gradiente para construir provas da execução da tarefa relevante para acelerar o processo de verificação;

  2. O Protocolo de Pinpoint baseado em gráficos, GPP, serve como uma ponte, conectando a execução offline de DNN (Rede Neural Profunda) e o framework de contrato inteligente na blockchain, resolvendo as inconsistências que facilmente ocorrem entre dispositivos de hardware e garantindo a consistência da verificação.

  3. Um método de incentivo semelhante ao Truebit, por meio de uma combinação de apostas e punições, estabelece um sistema de incentivo que permite que participantes economicamente racionais realizem honestamente as tarefas atribuídas. O mecanismo utiliza criptografia e métodos de teoria dos jogos. Esse sistema de verificação é essencial para manter a integridade e confiabilidade de grandes cálculos de treinamento de modelos.

No entanto, vale ressaltar que o conteúdo acima é mais sobre a resolução do nível de verificação de conclusão da tarefa, em vez do poder de computação descentralizado para alcançar funções de treinamento do modelo como destaque principal no documento do projeto, especialmente sobre computação paralela e otimização distribuída de comunicação, sincronização e outros problemas entre hardware. Atualmente, afetado pela latência de rede (Latência) e largura de banda (Bandwidth), a comunicação frequente entre nós aumentará o tempo de iteração e os custos de comunicação. Isso não apenas não trará otimização real, mas reduzirá a eficiência do treinamento. A abordagem da Gensyn para lidar com a comunicação de nós e a computação paralela no treinamento de modelos pode envolver protocolos de coordenação complexos para gerenciar a natureza distribuída da computação. No entanto, sem informações técnicas mais detalhadas ou uma compreensão mais profunda de seus métodos específicos, o mecanismo exato pelo qual a Gensyn alcança o treinamento de modelos em grande escala por meio de sua rede não será verdadeiramente revelado até que o projeto seja lançado.

Também prestamos atenção ao protocolo Edge Matrix Computing (EMC) que utiliza tecnologia blockchain para aplicar poder de computação à IA, renderização e pesquisa científica, acesso de e-commerce de IA e outros tipos de cenários, tarefas são distribuídas para diferentes nós de poder de computação através de computação elástica. Este método não apenas melhora a eficiência do poder de computação, mas também garante a segurança da transmissão de dados. Ao mesmo tempo, fornece um mercado de poder de computação onde os usuários podem acessar e trocar recursos de computação. É conveniente para os desenvolvedores implantar e alcançar os usuários mais rapidamente. Combinado com a forma econômica do Web3, os provedores de poder de computação também podem obter benefícios reais e subsídios de partes do protocolo com base no uso real dos usuários, e os desenvolvedores de IA também podem obter custos mais baixos de raciocínio e renderização. Abaixo está uma visão geral de seus principais componentes e funções:

Também se espera que sejam lançados produtos RWA baseados em GPU. A chave para isso é revitalizar o hardware que estava originalmente fixo na sala de computadores e dividir e circular na forma de RWA para obter liquidez adicional. GPU de alta qualidade pode ser usado como ativo subjacente de RWA. A razão é que o poder de computação pode ser considerado como moeda forte no campo de IA. Atualmente, há uma contradição óbvia entre oferta e demanda, e essa contradição não pode ser resolvida a curto prazo, então o preço da GPU é relativamente estável.

Além disso, implementar clusters de poder de computação por meio da implantação de salas de computadores IDC também é uma parte fundamental do protocolo EMC. Isso não apenas permite que as GPUs operem em um ambiente unificado, mas também lida de forma mais eficiente com tarefas relacionadas de grande escala que consomem poder de computação, como pré-treinamento de modelos. Isso atende às necessidades de usuários profissionais. Ao mesmo tempo, a sala de computadores IDC também pode hospedar e executar centralmente um grande número de GPUs para garantir as especificações técnicas do mesmo tipo de hardware de alta qualidade, facilitando sua embalagem no mercado como produtos RWA e abrindo novas ideias para DeFi.

Nos últimos anos, a comunidade acadêmica também desenvolveu novas teorias técnicas e práticas de aplicação no campo da computação de borda. Como um complemento e otimização da computação em nuvem, a computação de borda é parte da inteligência artificial que está acelerando da nuvem para a borda e para dispositivos IoT cada vez menores. Esses dispositivos IoT são frequentemente pequenos em tamanho, então a aprendizagem de máquina leve é favorecida para lidar com questões como consumo de energia, latência e precisão.

A Network3 é construída criando uma camada de IA dedicada Layer2 para fornecer aos desenvolvedores de IA ao redor do mundo otimização e compressão de algoritmos de modelos de IA, aprendizado federado, computação de borda e computação de privacidade. Fornecer serviços para ajudá-los a treinar ou verificar modelos de forma rápida, conveniente e eficiente. Utilizando um grande número de dispositivos de hardware IoT inteligentes, pode-se centrar em modelos pequenos para fornecer o poder de computação correspondente, e ao construir um TEE (Ambiente de Execução Confiável), os usuários podem concluir o treinamento relevante apenas fazendo upload de gradientes do modelo para garantir a privacidade e segurança dos dados relacionados ao usuário.

Para resumir

• Com o desenvolvimento da IA e de outros campos, muitas indústrias passarão por grandes mudanças em sua lógica subjacente, o poder de computação subirá para uma posição mais importante, e vários aspectos relacionados a ele também causarão extensa exploração na indústria. As redes de poder de computação descentralizadas têm suas próprias vantagens podem reduzir o risco de centralização e também podem servir como um complemento ao poder de computação centralizado.

• E as equipes no campo de IA também estão em uma encruzilhada. A escolha de usar modelos grandes treinados para construir seus próprios produtos ou participar do treinamento de grandes modelos em suas respectivas regiões é principalmente dialética. Portanto, o poder de computação descentralizado pode atender às diferentes necessidades de negócios. Essa tendência de desenvolvimento é bem-vinda e, com a atualização da tecnologia e iteração de algoritmos, inevitavelmente haverá avanços em áreas-chave.

• Não tenha medo, apenas descubra aos poucos.

Referência

https://www.semianalysis.com/p/gpt-4-architecture-infrastructure

https://medium.com/render-token/render-network-q2-highlights-part-2-network-statistics-ac5aa6bfa4e5

https://know.rendernetwork.com/

https://medium.com/livepeer-blog/uma-visão-geral-da-rede-livepeer-e-lpt-44985f9321ff

https://www.youtube.com/watch?v=FDA9wqZmsY8

https://mirror.xyz/1kx.eth/q0s9RCH43JCDq8Z2w2Zo6S5SYcFt9ZQaRITzR4G7a_k

https://mirror.xyz/gensyn.eth/_K2v2uuFZdNnsHxVL3Bjrs4GORu3COCMJZJi7_MxByo

https://docs.gensyn.ai/litepaper/#solution

https://a16zcrypto.com/posts/announcement/investing-in-gensyn/

https://www.pinecone.io/learn/estrategias-de-fragmentacao/

https://akash.network/blog/a-rapida-evolucao-do-cenario-de-ia/

https://aws.amazon.com/cn/blogs/compute/amazon-ec2-p4d-instances-deep-dive/

https://manual.edgematrix.pro/emc-network/o-que-e-emc-e-poc

https://arstechnica.com/gaming/2022/09/the-end-of-ethereum-mining-could-be-a-bonanza-for-gpu-shoppers/

Disclaimer:

  1. Este artigo é reproduzido a partir de [PANews]. Todos os direitos autorais pertencem ao autor original [Future3 Campus]. Se houver objeções a esta reimpressão, entre em contato com o Gate Aprenderequipe e eles resolverão prontamente.
  2. Isenção de responsabilidade: As opiniões expressas neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipe do Gate Learn. A menos que mencionado, copiar, distribuir ou plagiar os artigos traduzidos é proibido.
今すぐ始める
登録して、
$100
のボーナスを獲得しよう!