Expansão do poder de computação e busca por alta relação custo-benefício na era da IA
As grandes empresas de tecnologia estão a aumentar continuamente os seus investimentos em IA. Os últimos relatórios financeiros da Microsoft e do Google mostram que a receita e a margem de lucro dos negócios de cloud estão a aumentar constantemente, e a IA está a tornar-se um novo ponto de crescimento de desempenho. A "corrida armamentista" em termos de poder de computação entre os principais fornecedores de cloud está a todo o vapor, e é difícil ver uma desaceleração nos gastos de capital a curto prazo. O setor espera que o equilíbrio entre a oferta e a procura de poder de computação para IA possa ser alcançado por volta de 2030.
Entretanto, o mercado também está ansioso por ver mais aplicações de IA "práticas" que possam trazer melhorias reais na produtividade ou conveniência para os usuários. Este ano já surgiram produtos notáveis como o OpenAI Sora e o modelo nacional Kimi, e no futuro espera-se ver atualizações contínuas de grandes modelos como GPT e Gemini, além de mais aplicações de IA em dispositivos finais. No entanto, o caminho para a AGI ainda é longo, e as aplicações de IA que realmente mudem a sociedade humana podem precisar de um longo tempo para serem incubadas.
Atualmente, a indústria deve se concentrar em como fornecer "Poder de computação de alto custo-benefício". Com base na experiência histórica, a redução do custo por unidade de poder de computação é uma condição necessária para o desenvolvimento da IA. Poder de computação de IA barato, acessível e estável é a base para o surgimento de aplicações significativas de IA. Tomando a Sora como exemplo, seu lançamento público ainda levará alguns meses, e uma razão importante para isso é a necessidade de otimizar continuamente o poder de computação necessário para a inferência.
Para reduzir o custo do poder de computação, a indústria está abordando a questão de várias maneiras: em termos de capacidade de GPU, a TSMC está expandindo significativamente a capacidade de embalagem CoWoS necessária para chips de IA; em termos de equipamentos de rede, os novos chips de IA da Nvidia utilizam conexões de cabos de cobre para controlar os custos, e os fornecedores de módulos ópticos também estão promovendo soluções de alto custo-benefício como LPO; em termos de refrigeração, à medida que a densidade de potência dos gabinetes aumenta, as vantagens de custo-benefício das soluções de refrigeração líquida começarão a se revelar gradualmente.
De um modo geral, embora os principais fornecedores de nuvem tenham a capacidade de continuar a investir em grande escala, a demanda de mercado mais ampla é por um poder de computação de IA com alto custo-benefício. No futuro, como reduzir o custo por unidade de poder de computação, garantindo ao mesmo tempo o desempenho, será a chave para impulsionar o desenvolvimento da IA. Isso requer um esforço conjunto em várias áreas, como chips, redes e refrigeração, para construir uma infraestrutura de IA mais econômica e fornecer um suporte sólido para a inovação em aplicações de IA.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
9 gostos
Recompensa
9
6
Partilhar
Comentar
0/400
mev_me_maybe
· 16h atrás
Sobre esta questão da corrida armamentista de IA, como posso dizer?
Ver originalResponder0
HashRateHermit
· 16h atrás
Outra vez a fazer as pessoas de parvas durante alguns anos.
Ver originalResponder0
liquidation_surfer
· 16h atrás
Vazio de investimento, que pena.
Ver originalResponder0
ImaginaryWhale
· 16h atrás
O dinheiro acabou? Ainda não.
Ver originalResponder0
NFTArtisanHQ
· 16h atrás
fascinante... assim como os readymades de Duchamp perturbaram os mercados de arte, a computação de IA é a nossa renascença digital agora
Ver originalResponder0
Blockblind
· 16h atrás
Fazer dinheiro, fazer dinheiro, fazer muito dinheiro
A corrida armamentista de poder de computação de IA esquenta, o alto custo-benefício se torna a chave.
Expansão do poder de computação e busca por alta relação custo-benefício na era da IA
As grandes empresas de tecnologia estão a aumentar continuamente os seus investimentos em IA. Os últimos relatórios financeiros da Microsoft e do Google mostram que a receita e a margem de lucro dos negócios de cloud estão a aumentar constantemente, e a IA está a tornar-se um novo ponto de crescimento de desempenho. A "corrida armamentista" em termos de poder de computação entre os principais fornecedores de cloud está a todo o vapor, e é difícil ver uma desaceleração nos gastos de capital a curto prazo. O setor espera que o equilíbrio entre a oferta e a procura de poder de computação para IA possa ser alcançado por volta de 2030.
Entretanto, o mercado também está ansioso por ver mais aplicações de IA "práticas" que possam trazer melhorias reais na produtividade ou conveniência para os usuários. Este ano já surgiram produtos notáveis como o OpenAI Sora e o modelo nacional Kimi, e no futuro espera-se ver atualizações contínuas de grandes modelos como GPT e Gemini, além de mais aplicações de IA em dispositivos finais. No entanto, o caminho para a AGI ainda é longo, e as aplicações de IA que realmente mudem a sociedade humana podem precisar de um longo tempo para serem incubadas.
Atualmente, a indústria deve se concentrar em como fornecer "Poder de computação de alto custo-benefício". Com base na experiência histórica, a redução do custo por unidade de poder de computação é uma condição necessária para o desenvolvimento da IA. Poder de computação de IA barato, acessível e estável é a base para o surgimento de aplicações significativas de IA. Tomando a Sora como exemplo, seu lançamento público ainda levará alguns meses, e uma razão importante para isso é a necessidade de otimizar continuamente o poder de computação necessário para a inferência.
Para reduzir o custo do poder de computação, a indústria está abordando a questão de várias maneiras: em termos de capacidade de GPU, a TSMC está expandindo significativamente a capacidade de embalagem CoWoS necessária para chips de IA; em termos de equipamentos de rede, os novos chips de IA da Nvidia utilizam conexões de cabos de cobre para controlar os custos, e os fornecedores de módulos ópticos também estão promovendo soluções de alto custo-benefício como LPO; em termos de refrigeração, à medida que a densidade de potência dos gabinetes aumenta, as vantagens de custo-benefício das soluções de refrigeração líquida começarão a se revelar gradualmente.
De um modo geral, embora os principais fornecedores de nuvem tenham a capacidade de continuar a investir em grande escala, a demanda de mercado mais ampla é por um poder de computação de IA com alto custo-benefício. No futuro, como reduzir o custo por unidade de poder de computação, garantindo ao mesmo tempo o desempenho, será a chave para impulsionar o desenvolvimento da IA. Isso requer um esforço conjunto em várias áreas, como chips, redes e refrigeração, para construir uma infraestrutura de IA mais econômica e fornecer um suporte sólido para a inovação em aplicações de IA.