Fonte: TokenPost
Título Original: NVIDIA(NVDA), Tornar-se o 'sistema operativo' da fábrica de IA… Liderar a inovação na rede de centros de dados
Link Original:
A NVIDIA ( NVDA ) ultrapassa as GPUs de alto desempenho, concentrando-se na inovação da arquitetura de rede entre centros de dados, estabelecendo novos padrões para fábricas de IA. Na estrutura de computação distribuída, a rede é tratada como um sistema operativo para melhorar o desempenho e a eficiência energética.
O vice-presidente sênior de marketing da Nvidia, Gilad Shainer(, enfatizou em uma recente entrevista: “As cargas de trabalho de IA são essencialmente distribuídas, portanto, é necessária uma coordenação de rede precisa para fazer com que milhares de aceleradores funcionem como um único motor de computação.” Uma estrutura que deve ser implementada para transmitir os mesmos dados para cada GPU na mesma velocidade, sem latência, a fim de otimizar a velocidade geral de computação.
Nesta estrutura de processamento distribuído, a rede deixa de ser apenas um meio de conexão e passa a atuar como um sistema operacional substancial )OS(. Shayna afirmou que não se trata apenas de ASICs ) dedicados a GPUs individuais, mas também do design de rede que integra organicamente esses aceleradores, que se tornou o fator mais importante na determinação do desempenho das fábricas de IA.
A NVIDIA não considera apenas o desempenho, mas também a eficiência energética, adotando a abordagem de Co-design ( para um design abrangente da rede que abrange hardware, software e estruturas. Somente quando todos os elementos computacionais, desde a estrutura do modelo até as conexões físicas, são projetados de forma integrada, é que se pode maximizar a velocidade de processamento de tokens, a eficiência de execução e a previsibilidade. Shaina enfatizou isso.
Particularmente, o design de alta densidade é a vantagem diferenciadora da NVIDIA. Embora os centros de dados tradicionais tendam a evitar a sobrecarga de densidade, a NVIDIA adotou uma estratégia diferente: posicionando GPUs ASIC de alto desempenho de forma compacta nos racks, alcançando os objetivos de escalabilidade e eficiência energética através de conexões de cobre de baixo consumo. Durante a expansão em grande escala, a aplicação de 'Spectrum-X Ethernet Photonics)Spectrum-X Ethernet Photonics(' ou 'Quantum-X InfiniBand' e outras tecnologias de Óptica Co-embalada)Co-packaged Optics(, reduz ainda mais a energia consumida pelo movimento de dados.
Esta estratégia vai além da simples atualização de hardware, apresentando claramente a ambição da NVIDIA de realizar um novo paradigma de 'centros de dados em larga escala = supercomputadores' na era do computação central em IA. O domínio da infraestrutura da fábrica de IA está se deslocando de 'capacidade de fabricação de GPU' para 'capacidade de transformar todo o centro de dados em unidades de computação orgânicas'. A próxima fase da onda de IA parece começar com essa arquitetura de computação dominada por redes.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
A NVIDIA ( NVDA ) torna-se o 'sistema operativo' da fábrica de IA: a liderança na inovação da rede de data centers.
Fonte: TokenPost Título Original: NVIDIA(NVDA), Tornar-se o 'sistema operativo' da fábrica de IA… Liderar a inovação na rede de centros de dados Link Original: A NVIDIA ( NVDA ) ultrapassa as GPUs de alto desempenho, concentrando-se na inovação da arquitetura de rede entre centros de dados, estabelecendo novos padrões para fábricas de IA. Na estrutura de computação distribuída, a rede é tratada como um sistema operativo para melhorar o desempenho e a eficiência energética.
O vice-presidente sênior de marketing da Nvidia, Gilad Shainer(, enfatizou em uma recente entrevista: “As cargas de trabalho de IA são essencialmente distribuídas, portanto, é necessária uma coordenação de rede precisa para fazer com que milhares de aceleradores funcionem como um único motor de computação.” Uma estrutura que deve ser implementada para transmitir os mesmos dados para cada GPU na mesma velocidade, sem latência, a fim de otimizar a velocidade geral de computação.
Nesta estrutura de processamento distribuído, a rede deixa de ser apenas um meio de conexão e passa a atuar como um sistema operacional substancial )OS(. Shayna afirmou que não se trata apenas de ASICs ) dedicados a GPUs individuais, mas também do design de rede que integra organicamente esses aceleradores, que se tornou o fator mais importante na determinação do desempenho das fábricas de IA.
A NVIDIA não considera apenas o desempenho, mas também a eficiência energética, adotando a abordagem de Co-design ( para um design abrangente da rede que abrange hardware, software e estruturas. Somente quando todos os elementos computacionais, desde a estrutura do modelo até as conexões físicas, são projetados de forma integrada, é que se pode maximizar a velocidade de processamento de tokens, a eficiência de execução e a previsibilidade. Shaina enfatizou isso.
Particularmente, o design de alta densidade é a vantagem diferenciadora da NVIDIA. Embora os centros de dados tradicionais tendam a evitar a sobrecarga de densidade, a NVIDIA adotou uma estratégia diferente: posicionando GPUs ASIC de alto desempenho de forma compacta nos racks, alcançando os objetivos de escalabilidade e eficiência energética através de conexões de cobre de baixo consumo. Durante a expansão em grande escala, a aplicação de 'Spectrum-X Ethernet Photonics)Spectrum-X Ethernet Photonics(' ou 'Quantum-X InfiniBand' e outras tecnologias de Óptica Co-embalada)Co-packaged Optics(, reduz ainda mais a energia consumida pelo movimento de dados.
Esta estratégia vai além da simples atualização de hardware, apresentando claramente a ambição da NVIDIA de realizar um novo paradigma de 'centros de dados em larga escala = supercomputadores' na era do computação central em IA. O domínio da infraestrutura da fábrica de IA está se deslocando de 'capacidade de fabricação de GPU' para 'capacidade de transformar todo o centro de dados em unidades de computação orgânicas'. A próxima fase da onda de IA parece começar com essa arquitetura de computação dominada por redes.