Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
L'expansion de l'IA met à rude épreuve le réseau électrique : 7 logiques d'investissement énergétique que vous devez connaître
Auteur : Joseph Ayoub
Compilation : Deep Tide TechFlow
Introduction par Deep Tide : Tout le monde parle de puissance de calcul et de modèles, mais cet article soulève une question plus fondamentale : l’approvisionnement énergétique suit-il ? Morgan Stanley prévoit qu’en 2028, les États-Unis seront confrontés à un déficit électrique de 45 GW, le délai de livraison des grands transformateurs atteignant 24 à 36 mois, tandis que la consommation d’énergie des centres de données AI augmente chaque année de 15 %. L’auteur en déduit 7 logiques d’investissement, allant de la fragmentation du réseau électrique aux transformateurs à état solide, en passant par le refroidissement à deux phases, des perspectives peu communes mais cruciales.
Le texte complet est le suivant :
NVIDIA a récemment publié le cadre “L’AI est un gâteau à cinq couches”. Aujourd’hui, je vais argumenter que la couche énergétique est la contrainte liant la croissance intelligente et explorer ses conséquences.
Le progrès de la civilisation humaine est le résultat de notre capacité à maîtriser les outils—que ce soit un marteau, le feu, des chevaux, une presse à imprimer, un téléphone, une ampoule, une machine à vapeur, une radio, ou l’AI. Ces “outils” sont la façon dont l’humanité convertit l’énergie en productivité.
Fondamentalement, nous augmentons la productivité humaine en capturant de l’énergie et en l’orientant vers des objectifs à l’aide d’outils.
En résumé, la logique centrale du progrès de la civilisation humaine est la suivante :
Pendant la majeure partie de l’histoire humaine, l’humanité s’est appuyée sur l’énergie humaine et les mains comme outils pour avancer vers des objectifs, que ce soit pour cultiver ou écrire. La presse à imprimer est un exemple typique de la manière dont l’énergie et les outils peuvent progresser ensemble—popularisée par Gutenberg en 1440. Avant cette innovation, l’humanité utilisait sa propre énergie pour écrire des informations à la main avec un stylo (outil), ce qui était extrêmement inefficace. La presse à imprimer a innové de nouveaux outils, améliorant considérablement l’efficacité d’utilisation de l’énergie humaine grâce à l’impression mécanique, augmentant ainsi la productivité de plusieurs ordres de grandeur. Cependant, de 1450 à 1800, pendant près de 350 ans, la presse à imprimer n’a pratiquement pas connu d’innovations substantielles. Ce n’est qu’après que l’humanité a maîtrisé une énergie plus puissante—le charbon—que l’équation de l’énergie a été modifiée. En 1814, Friedrich Koenig a inventé la presse à imprimer à vapeur, adaptant la presse à l’innovation énergétique dominante de l’époque—le charbon, augmentant l’efficacité par 5 fois. Par la suite, la presse à imprimer a continué à s’adapter efficacement aux nouvelles énergies, passant d’une production de 250 exemplaires par heure à 30 000 exemplaires 50 ans plus tard, et atteignant aujourd’hui des millions d’exemplaires.
Ainsi, le processus continu d’innovation d’outils, de dépassement des frontières de la maîtrise de l’énergie, et d’amélioration de l’efficacité des nouveaux outils par rapport à l’énergie disponible—ce processus se poursuit aujourd’hui. Aujourd’hui, l’intelligence est notre nouvelle forme de productivité, et l’énergie en est le carburant. La clé est que notre capacité à faire progresser la croissance intelligente dépend de la quantité d’énergie durable et fiable que nous pouvons produire pour alimenter les outils (GPU) et les diriger vers des objectifs (intelligence).
Ce sujet est en résonance avec l’échelle de Kardashev—qui mesure le niveau de progrès technologique d’une civilisation par la quantité d’énergie qu’elle peut maîtriser, allant de la planète aux étoiles, aux galaxies, à l’univers, puis aux multivers. La quantité d’énergie que nous pouvons maîtriser marque combien nous avons progressé en tant que civilisation. Historiquement, cette règle a toujours été valable, et il en sera de même à l’avenir. La capacité à maîtriser l’énergie est fondamentale pour faire avancer la civilisation.
L’argument central de cet article est le suivant : la demande énergétique dépasse rapidement l’offre, ce qui constitue le principal goulot d’étranglement pour la croissance intelligente. Je vais explorer les impacts de premier et de deuxième niveau de cet argument.
Pourquoi l’approvisionnement énergétique ralentit-il ?
La découverte de la fission nucléaire en 1939 a été la dernière grande transformation dans le domaine de l’énergie depuis la naissance de la civilisation humaine. Cependant, en raison de l’accident de Tchernobyl et de l’engagement mondial à passer de l’énergie nucléaire aux énergies renouvelables, depuis 1950, il y a eu un décalage évident entre l’innovation des outils et le progrès énergétique. En 1950, la production mondiale d’énergie était de 2600 GW, aujourd’hui elle est de 19000 GW (augmentation de 7,3 fois). Cela semble être un bond, mais cette croissance linéaire progressive ne s’aligne pas du tout avec la croissance des calculs modernes et des technologies, dépassant à peine la croissance démographique de 3,5 fois durant la même période.
En revanche, l’intervalle entre les sauts quantiques d’innovation des outils se réduit. Il a fallu 364 ans pour passer de la première presse à imprimer à sa prochaine grande amélioration, 58 ans entre le premier vol et le voyage spatial, 20 ans entre le premier microprocesseur et Internet, tandis qu’aujourd’hui, des avancées majeures des GPU se produisent tous les 2 ans. Nous vivons dans une fenêtre d’amélioration de l’efficacité des outils qui s’accélère, à tel point que plusieurs innovations s’additionnent dans des cycles de plus en plus rapides. De l’AI à la cryptographie en passant par l’informatique quantique, la vitesse à laquelle de nouvelles innovations sont découvertes augmente, tout comme les progrès d’efficacité—c’est ce qu’on appelle la loi des rendements accélérés.
Aujourd’hui, les centres de données représentent 1,5 % de la consommation mondiale d’énergie, et devraient atteindre 3 % d’ici 2030—réalisant en 6 ans ce que la machine à vapeur a mis 50 ans à accomplir. La différence clé entre la révolution industrielle et l’explosion actuelle de l’intelligence réside dans le fait que la révolution industrielle a construit son approvisionnement énergétique en même temps que la demande augmentait—les mines de charbon, les canaux, les réseaux ferroviaires et les machines qui les consommaient se sont développés simultanément. Chaque révolution énergétique précédente a établi sa propre chaîne d’approvisionnement tout en se développant à grande échelle ; l’AI hérite d’une chaîne d’approvisionnement existante, et cette chaîne d’approvisionnement commence déjà à se fissurer.
Le réseau électrique n’est pas du tout préparé à faire face à une explosion d’intelligence qui voit sa consommation d’énergie augmenter de 15 % chaque année, tandis que la demande électrique aux États-Unis a presque stagné au cours de la dernière décennie. Des fissures commencent à apparaître aux États-Unis : la file d’attente pour l’accès au réseau électrique a atteint un niveau historique, le délai de livraison des grands transformateurs a déjà atteint en moyenne 24 à 36 mois, et d’ici 2025, le marché des transformateurs électriques fera face à un déficit d’approvisionnement de 30 %. Morgan Stanley estime qu’aux États-Unis, à lui seul, un déficit de 45 GW se profile d’ici 2028, soit l’équivalent de la consommation électrique de 33 millions de foyers américains. Je pense que ce déficit pourrait être bien plus important.
Le problème est clair : l’humanité doit radicalement élargir l’échelle énergétique pour suivre les sauts d’innovation dans des domaines comme l’AI, la robotique et la conduite autonome.
Le déficit énergétique à venir : impacts de premier et de deuxième niveau
Les conséquences du déficit énergétique à venir sont d’une importance historique : avec une demande énergétique qui s’envole et une offre insuffisante, nous pourrions assister à l’émergence d’un marché énergétique quasi-privatisé.
Les fournisseurs de cloud hyperscale ont déjà commencé à construire des installations de production d’électricité sur site (BTM) et prévoient de s’étendre aux centres de données alimentés par l’énergie nucléaire, une tendance qui commence à se dessiner. Je crois que cette tendance ne fera que s’accentuer.
Voici 7 arguments que je propose, tous dérivés de l’explosion de l’intelligence et de son impact sur l’approvisionnement électrique tendu.
Argument 1 : fragmentation du réseau électrique—la puissance de calcul se déplacera vers l’énergie, et non l’inverse
Dans les régions où la demande de calcul est proche, les juridictions où l’énergie est abondante et la réglementation est souple bénéficieront d’une valeur disproportionnée à mesure que le système énergétique se fragmentera.
Lorsque la demande d’énergie commence à dépasser l’offre, l’électricité deviendra un sujet politique sensible. Les ménages ont droit de vote, les centres de données non. En raison du déficit énergétique, le réseau électrique sera peu enclin à rester neutre, mais plutôt à placer la demande d’électricité des ménages au-dessus de celle de l’industrie à travers des politiques de tarification, des limites d’accès ou des plafonds souples.
Étant donné que la puissance de calcul est extrêmement sensible à la latence, au temps de disponibilité et à la fiabilité, il est fondamentalement impossible d’opérer dans des juridictions qui priorisent l’alimentation des ménages. À mesure que l’accès au réseau devient instable ou politisé, les charges de travail de calcul migreront vers un modèle de production d’électricité sur site (BTM), où l’électricité peut être directement garantie, contrôlée et tarifée.
Cela conduira à une transformation structurelle : la puissance de calcul se déplacera vers des économies où l’énergie est abondante et la réglementation est souple. Les gagnants seront ceux capables d’intégrer terrain, interconnexion, production d’énergie et fibre optique en systèmes déployables et reproductibles, et les juridictions où ces systèmes sont implantés en bénéficieront également.
Argument 2 : l’énergie devient une barrière concurrentielle, la production d’électricité sur site (BTM) devient la capacité fondamentale qui distingue les fournisseurs de puissance de calcul
À mes yeux, c’est l’impact de premier niveau le plus critique que provoque l’aggravation du déficit énergétique. Dans un monde où la demande énergétique dépasse l’offre, obtenir de l’électricité fiable et bon marché est un avantage de coût structurel qui croît au fil du temps. De plus, la priorité donnée aux centres de données en matière d’accès à l’électricité est insoutenable sur le plan politique, et c’est précisément la tendance actuelle de l’énergie. L’approvisionnement électrique national devient de plus en plus tendu, obligeant les fournisseurs de puissance de calcul à produire leur propre électricité, une tendance déjà initiée par les fournisseurs de cloud hyperscale. Les infrastructures sans production d’électricité BTM seront directement éliminées.
Fondamentalement, les entreprises qui possèdent de l’électricité gagnent, celles qui louent de l’électricité perdent. Sans production d’électricité BTM, les fournisseurs de puissance de calcul seront confrontés à des problèmes de fiabilité d’électricité (mortels), à des coûts croissants et à des restrictions d’utilisation de l’électricité. Les REIT d’hébergement pures sans production d’électricité (comme Equinix, Digital Realty) verront leur valeur diminuer par rapport aux opérateurs intégrés verticalement. Les entreprises qui combinent production d’énergie et hébergement de puissance de calcul construisent les barrières concurrentielles les plus solides (Crusoe, Iren et certains fournisseurs de cloud hyperscale). Cela peut être exprimé comme un arbitrage long-court, mais je préfère souligner ici les gagnants de l’intégration verticale.
Argument 3 : la standardisation des BTM stimule l’innovation—des transformateurs traditionnels aux transformateurs à état solide, des équipements de commutation traditionnels aux équipements de commutation numériques
Les transformateurs traditionnels élèvent ou abaissent la tension de l’électricité du réseau alternatif. En raison de leur taille et de leurs matériaux, les délais de livraison ont atteint 24 à 36 mois, avec un déficit d’approvisionnement de 30 %. Ce sont aussi des technologies du XIXe siècle, fabriquées à la main autour de matériaux limités. L’essentiel est que chaque mégawatt de production d’électricité BTM doit être converti, régulé et distribué vers les puissances de calcul, et il n’y a pas de moyen de contourner les transformateurs.
Les transformateurs à état solide remplacent tout cela par des dispositifs électroniques de puissance à haute fréquence. Ils sont plus petits, plus rapides, totalement contrôlables, traitant la conversion AC-DC, la régulation de la tension et le courant bidirectionnel dans une seule unité. Leur fabrication est également plus simple, reposant sur des semi-conducteurs à base de silicium, comme le carbure de silicium ou le nitrure de gallium, plutôt que sur d’énormes enroulements en cuivre et des réservoirs remplis d’huile. À mesure que le BTM devient l’architecture standard, ce dispositif entre l’énergie et la puissance de calcul devient un goulot d’étranglement, et ce dispositif est le transformateur à état solide (SST).
Les équipements de commutation font également face à des délais de 80 semaines, agissant comme une couche de contrôle entre la production d’énergie et la charge, responsable de l’acheminement de l’électricité, de l’isolement des pannes et de la protection des systèmes. Comme les transformateurs, les équipements de commutation sont également des produits à forte intensité de main-d’œuvre, fabriqués à partir de matériaux limités, et n’ont pas beaucoup changé depuis les années 1980.
Les équipements de commutation numériques remplacent tout cela par des dispositifs électroniques de puissance à état solide. Ils sont plus rapides, programmables, entièrement contrôlables, permettant la détection des pannes en temps réel, l’isolement à distance et l’acheminement dynamique des charges. Tout aussi important, ils s’étendent comme des produits électroniques plutôt que comme des équipements industriels.
Remarque sur le cuivre : j’ai une vue constructive sur le cuivre. Le cuivre est l’autoroute de l’électronique, et sera la principale matière première nécessaire dans un monde de plus en plus électrifié. Cependant, la manière dont ce commerce s’exprime est subtile—les mines traditionnelles en tant que commerce ont des marges bénéficiaires faibles et peuvent se compresser dans le temps. Mais à l’extrémité du produit fini, où le cuivre est irremplaçable et limité par le temps, il existe un goulot d’étranglement significatif et un potentiel d’accumulation de valeur future. Les fabricants de câbles comme Prysmian et Nexans vendent des contraintes de produits finis plutôt que des matières premières, et avec l’augmentation considérable du délai de livraison des transformateurs, cela n’est plus un marché de matières premières.
Argument 4 : le coût carbone de l’AI devient de plus en plus difficile à soutenir politiquement, forçant des solutions basées sur l’énergie solaire et les batteries
La construction de l’AI pose un problème de carbone qui n’est pas encore pris en compte dans les prix, c’est une contrainte politique. Les centres de données augmentent le prix de l’électricité, consomment massivement des ressources en eau et augmentent les émissions locales. Cela s’est déjà manifesté : des projets de centres de données de 18 milliards de dollars ont été complètement annulés, et des projets de 46 milliards de dollars ont été retardés.
Aujourd’hui, environ 56 % de l’électricité des centres de données provient de combustibles fossiles. Le gaz naturel a résolu le problème de la vitesse de déploiement, mais il est politiquement fragile. À mesure que la demande augmente, la résistance à l’expansion des énergies fossiles s’accroît, forçant la création d’un système mixte de gaz naturel, nucléaire et énergies renouvelables.
Bien que le gaz naturel ait servi de pont à court terme dans l’explosion des centres de données, à plus long terme, l’abondance énergétique ne se résout pas par l’extraction de combustibles, mais par la capture d’énergie. L’énergie que le soleil envoie à la terre dépasse de plusieurs ordres de grandeur la consommation humaine. La contrainte ne réside pas dans la disponibilité, mais dans la conversion, le stockage et le déploiement.
L’énergie solaire n’est pas une solution immédiate pour la demande énergétique des puissances de calcul, mais la solution ultime.
Actuellement, le solar commercial capture environ 22 % de l’énergie incidente. Chaque point d’efficacité de conversion supplémentaire réduira le coût par mégawatt, poussant l’énergie solaire à devenir plus proche de la parité pour la production d’électricité programmable dans les systèmes BTM.
Le stockage par batterie devient un composant central de cette architecture. Non seulement pour lisser l’intermittence, mais aussi comme couche de rendement. L’arbitrage de stockage et l’équilibrage des charges transformeront des centres de coûts historiques en contributeurs de profits pour les opérateurs BTM.
Dans cet argument, les gagnants sont les entreprises intégrées verticalement, couvrant la capture, le stockage et la distribution : les développeurs solaires spécialisés ayant des contrats BTM, les fabricants de batteries possédant des produits de niveau réseau et de site, et quelques rares opérateurs capables de combiner production d’électricité autonome et hébergement de puissance de calcul.
L’énergie solaire est un jeu d’approvisionnement et de fabrication, les batteries sont la contrainte et la couche de monétisation, intégrant les profits de capture, la technologie de pointe restant une option plutôt qu’un scénario de base. À cet égard, Tesla pourrait continuer à être un grand gagnant, mais je choisirais de me limiter à des actifs non consensuels.
Argument 5 : le refroidissement devient une contrainte de premier niveau, le refroidissement liquide direct à deux phases (D2C) deviendra essentiel dans les applications de pointe
Une autre conséquence est l’émergence de la technologie de refroidissement liquide direct à deux phases. Franchement, cet argument intègre également mon propre jugement : la densité de puissance des puces augmente selon une trajectoire parabolique, ce qui constitue un problème thermodynamique de plus en plus épineux. Le refroidissement par air traditionnel est fondamentalement insoutenable pour plusieurs raisons, la principale étant qu’il ne fonctionne pas sur des puces à densité plus élevée, en plus des problèmes environnementaux liés à la consommation d’eau et d’électricité.
Tout d’abord, le refroidissement D2C promeut la densité et les performances sans être limité par la gestion thermique—c’est la question clé pour l’expansion. La réalité actuelle du marché est que le refroidissement à phase unique domine, car il est plus simple : l’eau froide circule par des plaques froides pour refroidir les puces, mais il y a une limite connue. Lorsque la densité de puissance des puces dépasse 1500 W, la transition vers le refroidissement à deux phases deviendra inévitable. Le refroidissement à deux phases pompe un liquide diélectrique autour des puces, conçu pour bouillir à basse température—le changement de phase de liquide à gaz améliore considérablement l’efficacité du refroidissement.
Le refroidissement à deux phases peut réduire la consommation d’énergie de 20 % et diminuer l’utilisation d’eau de 48 %. Cette amélioration des performances permet des emballages de puces plus denses, améliorant les performances et, en fin de compte, augmentant la demande pour un refroidissement haute performance.
L’entreprise leader en DTC à deux phases, Zutacore, a démontré l’utilisation de liquide diélectrique (au lieu de l’eau) pour le refroidissement D2C à deux phases, réduisant la consommation d’énergie de 82 % et éliminant complètement l’utilisation d’eau—ce résultat a été validé par des recherches de Vertiv et Intel. Zutacore est un opérateur privé à surveiller dans ce domaine, et de plus, approfondir l’étude des fournisseurs de liquides diélectriques pourrait également être précieux.
Argument 6 : l’énergie nucléaire peut servir de pont vers l’abondance énergétique et l’approvisionnement stable, mais n’est pas la réponse à long terme pour l’expansion énergétique
En écrivant cet article, je pensais initialement que l’énergie nucléaire était une bonne méthode pour combler les vides à court terme de l’approvisionnement énergétique. La réalité est que le coût de déploiement des réacteurs modulaires de petite taille (SMR) est 5 à 10 fois plus élevé que celui des systèmes à gaz naturel (10 000 à 15 000 dollars par kilowatt), ce qui rend leur déploiement et leur extension à grande échelle pratiquement impossibles.
L’énergie nucléaire résout le problème de fiabilité, mais pas celui de la vitesse ou des coûts—surtout dans le cas des installations BTM. Cela permet de fournir une puissance de base stable et programmable dans des situations où la fiabilité est non négociable. Ainsi, l’énergie nucléaire a un rôle à jouer dans le déficit énergétique, en tant que pont plutôt que comme approvisionnement central.
L’énergie nucléaire est soumise à des contraintes de cycle de combustible et de temps de construction. Les réacteurs avancés d’aujourd’hui nécessitent de l’uranium faiblement enrichi de haute abondance (HALEU), et ce combustible n’est pratiquement pas disponible à l’échelle commerciale aujourd’hui. Même lorsque le réacteur est construit, la question de savoir s’il pourra recevoir du combustible devient la contrainte clé de la vitesse d’expansion de l’énergie nucléaire.
Par conséquent, l’énergie nucléaire est peu susceptible de devenir la solution marginale pour l’expansion énergétique—sa mise sur le marché est lente, elle est capitalistique et limitée par les infrastructures et le combustible. En revanche, les systèmes qui s’étendent le plus rapidement—récemment le gaz naturel, à long terme l’énergie solaire et le stockage—sont les options qui réduiront l’écart.
Le goulot d’étranglement investissable n’est pas le réacteur, mais le combustible. À mesure que la demande pour les SMR augmente, l’enrichissement de l’uranium hautement enrichi deviendra un maillon clé—un goulot d’étranglement qui n’est pas lié à un type de réacteur particulier, peu importe quel design finit par dominer, la valeur s’accumulera ici.
Argument 7 : une nouvelle catégorie de groupes d’infrastructures énergétiques émerge ; les intégrateurs verticaux transformeront l’électricité en puissance de calcul
Le goulot d’étranglement de l’infrastructure AI ne réside pas seulement dans l’énergie, mais dans la capacité à transformer massivement l’énergie en calcul utilisable.
Dans les années 1870, tout comme l’électricité, le pétrole n’était pas rare, mais le raffinage et la distribution posaient problème. Rockefeller a établi une entreprise en intégrant verticalement l’extraction de pétrole brut, le raffinage et sa distribution dans les foyers, créant ainsi l’une des plus grandes entreprises de l’histoire (Standard Oil).
La révolution intelligente suit le même modèle ; l’électricité est le pétrole. L’électricité est abondante, mais transformer de manière fiable l’électricité en puissance de calcul présente des contraintes en matière de distribution, de refroidissement, de connexion et de licences. Le raffinage électronique est ce qui crée la valeur. Chaque couche supplémentaire de propriété augmente la fiabilité, réduit les coûts et génère des marges bénéficiaires, rendant l’intégration verticale auto-renforçante.
Les entreprises hyperscale sont la couche de distribution de ce système, et les terminaux de consommation de calcul. Cependant, les opportunités structurelles résident dans les infrastructures que les distributeurs sont contraints d’acheter. Cela a créé une nouvelle catégorie de groupes d’infrastructures énergétiques, c’est-à-dire les opérateurs qui contrôlent la production d’énergie, la conversion, le refroidissement et l’hébergement.
L’expression la plus claire se trouve chez les opérateurs intégrés verticalement sur le marché privé, comme Crusoe et Lancium, ainsi que sur le marché public chez les plateformes de calcul natives, comme Iren et Core Scientific, qui possèdent déjà les bases les plus difficiles à reproduire ; l’énergie.
Les entreprises qui contrôlent le flux d’électron vers les racks construisent les barrières concurrentielles les plus solides dans l’économie AI. Le logiciel ne peut pas ingérer les infrastructures physiques.