En 2026, le vent de l’investissement en IA changera. De la course aux armements entre les GPU frénétiquement balayés et l’entraînement désespéré de grands modèles ces deux dernières années, elle est désormais entrée dans une phase plus réaliste : la question de la réduction du coût de l’inférence est l’acteur décisif.
Les yeux du capital sont refocalisés. Tout cet argent allait auparavant à des géants du matériel comme Nvidia, mais maintenant les investisseurs calculent un compte plus détaillé : coûts d’inférence, coûts d’énergie, coûts de dissipation thermique, et même coûts de transmission réseau. Ce n’est pas seulement un problème technique, mais aussi un compte rendu économique.
**Quel est le véritable goulot d’étranglement dans l’expansion de la puissance de calcul ?**
Y a-t-il assez de chips ? Ce n’est plus un problème. Le véritable goulot d’étranglement, c’est l’électricité. Un centre de données hyperscale nécessite une alimentation électrique stable, un système de refroidissement efficace et une interconnexion réseau supportable. La capacité de ces infrastructures à être connectées à une courbe de capacité reproductible détermine jusqu’où la commercialisation de l’IA peut aller. En d’autres termes, le plafond des usines de puissance de calcul est déterminé par des équipements « de qualité industrielle » tels que l’infrastructure électrique, la capacité de refroidissement et les commutateurs réseau.
**La puissance de la chaîne industrielle évolue**
D’une simple course aux armements matériels à une compétition d’efficacité dans toute la chaîne industrielle. La couche d’interconnexion réseau (commutateurs, modules optiques), la couche d’infrastructure électrique (contrats d’achat d’électricité, exploitation et maintenance des centres de données) et la couche logicielle (optimisation des inférences, stratégie de planification) - ces liens influencent directement la marge bénéficiaire brute et la compétitivité de l’entreprise. La pile logicielle d’optimisation d’inférence peut améliorer l’efficacité matérielle de 20 %, ce qui correspond à la différence de flux de trésorerie.
**La controverse autour de la bulle de l’IA s’intensifie**
Il y a désormais deux factions qui se battent à Wall Street. Les optimistes affirment que l’IA est la deuxième révolution industrielle, et que l’investissement dans les centres de données peut durer plus de 10 ans. Les pessimistes se demandent : quand ces investissements commenceront-ils à produire de vrais rendements ? Il semble que la prochaine chose à défendre ne soit pas qui a le plus de jetons, mais qui peut véritablement transformer les avantages techniques en argent.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
13 J'aime
Récompense
13
5
Reposter
Partager
Commentaire
0/400
Ramen_Until_Rich
· Il y a 7h
Les coûts d'électricité sont le véritable atout maître, peu importe la puissance des puces
---
Bien dit, la course aux GPU ressemblait à un casino, ce n'est qu'à présent qu'on commence à faire le vrai bilan
---
En ce qui concerne le coût de l'inférence, c'est vraiment le prochain point de différenciation
---
Une augmentation de 20 % de l'efficacité = de l'argent réel, c'est pour ça que les équipes de la pile logicielle ont récemment levé autant de fonds
---
Wall Street est divisé, mais je veux juste savoir quand on pourra vraiment faire de l'argent
---
Le système de refroidissement est gravement sous-estimé, l'électricité + la dissipation thermique sont les coûts cachés principaux
---
Passer du balayage GPU au calcul des coûts d'électricité, le capital devient vraiment mature, mais le bulles est toujours là
---
Les commutateurs réseau vont décoller, je mise sur ces fournisseurs d'infrastructures
---
Alors, faut-il acheter des actions de compagnies d'électricité maintenant haha
---
Investir dans des centres de données pendant 10 ans ? Attendez d'abord de voir combien de ROI réel cela peut générer
Voir l'originalRépondre0
PositionPhobia
· 01-03 15:27
Les coûts d'électricité sont vraiment la véritable arme secrète, pas étonnant que les mineurs aillent dans des endroits où l'électricité est bon marché.
Personne ne se concentre vraiment sur le coût de l'inférence, ils regardent tous le stock de GPU.
Les deux camps à Wall Street se disputent, et nous, les investisseurs particuliers, attendons de faire une bonne affaire.
Les GPU sont rassasiés, c'est maintenant au tour des infrastructures électriques de profiter.
En gros, c'est parce qu'ils ne peuvent plus se permettre de brûler autant, ils doivent opérer de manière plus précise.
Je pense que ceux qui gagnent vraiment de l'argent, ce sont ceux qui vendent des "alimentations", haha.
Les pessimistes ont maintenant une raison valable, où est le ROI, mes amis ?
Voir l'originalRépondre0
ConfusedWhale
· 01-03 03:54
Attendez, le vrai point de profit n'a jamais été dans les puces, mais toujours dans la facture d'électricité ?
Compris, Nvidia vend des pioches, la véritable mine d'or est la centrale électrique.
L'optimisation du logiciel de la pile de traitement pour augmenter l'efficacité de 20 % = économiser directement 20 % d'électricité, cette logique n'a pas de problème...
Donc, maintenant, faut-il tout miser sur les actions énergétiques et la technologie de refroidissement ? Ou attendre de voir qui des deux camps à Wall Street gagnera avant de monter à bord.
Un nouveau business "industriel" est sur le point de exploser, on dirait.
Quand est-ce que cette bulle de l'IA va éclater ? Attendre de voir si une véritable trésorerie apparaît avant de parler.
La course aux armements hardware a été perdue face aux infrastructures, c'est intéressant.
Voir l'originalRépondre0
GasGrillMaster
· 01-03 03:45
L'électricité est le véritable capital, tout le reste a été noyé dans la vague de bruit autour des GPU.
Voir l'originalRépondre0
ShamedApeSeller
· 01-03 03:34
En résumé, le jeu de la dépense d'argent doit prendre fin
Le coût de l'électricité aurait dû être pris en compte depuis longtemps, auparavant c'était une course folle à l'armement GPD
Le vrai enjeu réside dans le coût de la preuve, c'est cela la véritable barrière
Les gens de Wall Street sont maintenant prudents, ils commencent à demander le ROI
Honnêtement, pouvoir augmenter l'efficacité de 20 % signifie une marge de profit de 20 %, c'est ça la vérité
Les infrastructures énergétiques sont la limite, la quantité de puces n'est plus aussi importante
C'est intéressant, passer de dépenser de l'argent pour acheter des puces à optimiser l'efficacité des infrastructures et de la maintenance
Les optimistes sont maintenant embarrassés, qui peut croire à un cycle de retour sur investissement de dix ans ?
Ce n'est pas une mauvaise idée, mais pour résoudre le coût de l'électricité, il faut vraiment compter sur l'énergie verte et les politiques
En gros, tout dépend maintenant de la puissance de la pile logicielle
En 2026, le vent de l’investissement en IA changera. De la course aux armements entre les GPU frénétiquement balayés et l’entraînement désespéré de grands modèles ces deux dernières années, elle est désormais entrée dans une phase plus réaliste : la question de la réduction du coût de l’inférence est l’acteur décisif.
Les yeux du capital sont refocalisés. Tout cet argent allait auparavant à des géants du matériel comme Nvidia, mais maintenant les investisseurs calculent un compte plus détaillé : coûts d’inférence, coûts d’énergie, coûts de dissipation thermique, et même coûts de transmission réseau. Ce n’est pas seulement un problème technique, mais aussi un compte rendu économique.
**Quel est le véritable goulot d’étranglement dans l’expansion de la puissance de calcul ?**
Y a-t-il assez de chips ? Ce n’est plus un problème. Le véritable goulot d’étranglement, c’est l’électricité. Un centre de données hyperscale nécessite une alimentation électrique stable, un système de refroidissement efficace et une interconnexion réseau supportable. La capacité de ces infrastructures à être connectées à une courbe de capacité reproductible détermine jusqu’où la commercialisation de l’IA peut aller. En d’autres termes, le plafond des usines de puissance de calcul est déterminé par des équipements « de qualité industrielle » tels que l’infrastructure électrique, la capacité de refroidissement et les commutateurs réseau.
**La puissance de la chaîne industrielle évolue**
D’une simple course aux armements matériels à une compétition d’efficacité dans toute la chaîne industrielle. La couche d’interconnexion réseau (commutateurs, modules optiques), la couche d’infrastructure électrique (contrats d’achat d’électricité, exploitation et maintenance des centres de données) et la couche logicielle (optimisation des inférences, stratégie de planification) - ces liens influencent directement la marge bénéficiaire brute et la compétitivité de l’entreprise. La pile logicielle d’optimisation d’inférence peut améliorer l’efficacité matérielle de 20 %, ce qui correspond à la différence de flux de trésorerie.
**La controverse autour de la bulle de l’IA s’intensifie**
Il y a désormais deux factions qui se battent à Wall Street. Les optimistes affirment que l’IA est la deuxième révolution industrielle, et que l’investissement dans les centres de données peut durer plus de 10 ans. Les pessimistes se demandent : quand ces investissements commenceront-ils à produire de vrais rendements ? Il semble que la prochaine chose à défendre ne soit pas qui a le plus de jetons, mais qui peut véritablement transformer les avantages techniques en argent.