Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Sept signaux pour comprendre l'IA cette semaine : fuite de modèles, moteur de code, gestion du personnel
Auteur : Tara Tan / StrangeVC
Traduction : 深潮 TechFlow
Présentation de 深潮 : Ce bulletin hebdomadaire est d’une densité extrêmement élevée : sept signaux indépendants couvrent les tendances les plus cruciales de l’industrie de l’IA.
Le plus intéressant à surveiller : Anthropic, à la suite d’une erreur de configuration de CMS, a accidentellement divulgué de nouveaux détails sur son modèle interne au code « Capybara », dont le niveau se situe au-dessus d’Opus.
Le texte intégral est le suivant :
Au cours des derniers mois, il est évident que nous avons franchi un certain seuil « agentic ». Ce qui nécessitait il y a cinq ans quatre à six semaines de construction ne prend désormais plus que moins de cinq minutes. Il y a six mois, la même tâche demandait encore une à deux heures, avec beaucoup de débogage.
Il s’agit d’une transition de phase assez marquante, que nous n’avons peut-être pas encore entièrement assimilée. L’effondrement de la distance entre les idées et des produits réellement opérationnels va réécrire l’ensemble de l’industrie. C’est un changement par paliers de l’outil que l’être humain utilise pour construire, créer et résoudre des problèmes.
En lien avec cela, OpenClaw est nettement plus stable depuis l’acquisition d’OpenAI. Il existe une trajectoire claire pour qu’il devienne l’un des projets open source les plus importants du domaine de l’IA.
Passons au contenu de cette semaine.
La fuite du Claude Mythos d’Anthropic révèle le niveau d’un nouveau modèle
Anthropic, à la suite d’une erreur de configuration de CMS, a accidentellement exposé des détails concernant un modèle non publié nommé Claude Mythos. Les brouillons divulgués décrivent un nouveau niveau « Capybara », situé au-dessus d’Opus, avec des percées majeures en programmation, raisonnement et cybersécurité. Anthropic confirme qu’il teste ce modèle auprès de clients en accès anticipé, le décrivant comme un « changement par paliers » et « le modèle le plus puissant construit à ce jour ». (Fortune, The Decoder)
Pourquoi c’est important : en dehors du modèle lui-même, deux éléments méritent d’être particulièrement surveillés. D’abord, le brouillon divulgué avertit que les capacités de cybersécurité de ce modèle « dépassent de loin tout autre modèle d’IA », ce qui a fait bouger les cours des actions de cybersécurité au cours d’une seule journée de bourse. Ensuite, l’introduction d’un quatrième niveau de modèles (Capybara au-dessus d’Opus) indique qu’Anthropic construit un espace de tarification pour les clients entreprises, et pas seulement un espace de performance pour des tests de référence.
Claude Code devient le moteur principal de la croissance d’Anthropic
À l’heure actuelle, Claude Code représente environ 4 % de toutes les contributions publiques sur GitHub, et devrait atteindre plus de 20 % d’ici la fin de l’année. Le taux annuel de revenus d’Anthropic dans son ensemble est estimé à 14 milliards de dollars, et le taux annuel de revenus de Claude Code seul est d’environ 2,5 milliards de dollars. Les utilisateurs de cet outil sont passés des développeurs aux utilisateurs non techniques, qui apprennent désormais des commandes de terminal pour construire des projets avec lui. (SemiAnalysis, Uncover Alpha, VentureBeat)
Pourquoi c’est important : Claude Code réduit les coûts d’acquisition de clients à un niveau proche de zéro grâce à une adoption organique par les développeurs. En s’étendant, via Cowork, aux rôles non développeurs, le marché adressable s’élargit bien au-delà des 28 millions de développeurs professionnels dans le monde.
Le Pretext de Cheng Lou : une mise en page de texte qui ne dépend pas du CSS
Cheng Lou est l’un des ingénieurs UI les plus influents des dix dernières années (React, ReasonML, Midjourney). Il publie Pretext, un algorithme de mesure de texte en TypeScript pur qui contourne totalement le CSS, la mesure du DOM et le reflow du navigateur. La démonstration inclut : un rendu virtualisé de dizaines de milliers de blocs de texte à 120 images par seconde, des bulles de discussion compactes sans gaspillage de pixels, des mises en page de magazine multi-colonnes réactives et de l’art ASCII à largeur variable. (X post)
Pourquoi c’est important : la mise en page et la mesure du texte constituent depuis toujours un goulot d’étranglement implicite qui freine l’arrivée d’une nouvelle génération d’UI. Le CSS a été conçu pour des documents statiques, et non pour une conception fluide, générée par l’IA, en temps réel, qui est aujourd’hui devenue la norme. Si Pretext tient sa promesse, il éliminera l’un des derniers ensembles de contraintes fondamentales de l’interface utilisateur native en IA en termes d’apparence et d’expérience.
Arm expédie pour la première fois un chip conçu en interne en 35 ans
Arm publie l’AGI CPU, un processeur de centre de données à 136 cœurs, fabriqué sur un procédé de 3 nm de TSMC et co-développé avec Meta. Il s’agit de la première fois que l’entreprise vend des puces finies plutôt que des IP sous licence. OpenAI, Cerebras et Cloudflare font partie des premiers partenaires, et des livraisons en volume devraient commencer d’ici la fin de l’année. (Arm Newsroom, EE Times)
Pourquoi c’est important : les centres de données d’IA sont dominés aujourd’hui par les GPU. Les GPU servent à entraîner et à exécuter les modèles, tandis que les CPU gèrent principalement les flux de données et la planification. Mais les charges de travail agentic sont différentes. Lorsque des milliers d’agents IA fonctionnent simultanément, chacun coordonnant des tâches, appelant des API, gérant la mémoire et routant des données entre systèmes, ces opérations d’orchestration retombent sur le CPU. Arm affirme que cela fera augmenter de 4 fois la demande en CPU par capacité de data center par gigawatt. (HPCwire, Futurum Group)
NVIDIA et Emerald AI transforment les centres de données en actifs du réseau électrique
NVIDIA et Emerald AI annoncent la constitution d’une alliance avec AES, Constellation, Invenergy, NextEra et Vistra, visant à construire des « usines IA flexibles » qui participent aux services d’équilibrage du réseau en modulant la charge de calcul. La première installation, Aurora, est située à Manassas, en Virginie, et sera ouverte au premier semestre 2026. (NVIDIA Newsroom, Axios)
Pourquoi c’est important : le plus grand goulot d’étranglement de l’expansion de l’infrastructure IA n’est pas la puce, mais la timeline d’accès au réseau électrique ; dans la plupart des régions, il faut 3 à 5 ans. Les centres de données qui peuvent démontrer la flexibilité du réseau peuvent se connecter plus rapidement et se heurtent à moins de contraintes réglementaires. Cela redéfinit la thèse énergétique des investisseurs dans l’infrastructure IA : l’argument gagnant n’est pas « plus d’électricité », mais « une électricité plus intelligente ».
La Chine limite la sortie du personnel de Manus AI
Les autorités chinoises limitent la sortie de l’étranger du CEO de Manus, Xiao Hong (萧宏), et du chef scientifique, Ji Yichao (纪一超), après que Meta a acquis cette start-up IA enregistrée à Singapour pour 2 milliards de dollars. La Commission nationale du développement et de la réforme convoquera les deux dirigeants à Pékin ce mois-ci et imposera des restrictions de déplacement pendant la période d’examen de la réglementation. (Reuters, Washington Post)
Pourquoi c’est important : ce n’est pas une restriction commerciale, mais une restriction sur les personnes. La Chine pourrait envoyer un signal : les talents en IA ayant des racines sur le continent sont des actifs contrôlés, quelle que soit la localisation de l’enregistrement de l’entreprise.
Un modèle à 40 milliards de paramètres s’exécute localement sur iPhone 17 Pro
Un projet open source nommé Flash-MoE fait la démonstration d’un modèle d’experts mixture (MoE) à 400 milliards de paramètres qui s’exécute entièrement côté appareil, en utilisant la puce A19 Pro d’un iPhone 17 Pro, et en transférant en streaming les poids de SSD vers GPU. Le modèle (Qwen 3.5-397B, quantification 2 bits, 17 milliards de paramètres actifs) s’exécute à une vitesse de 0,6 token par seconde, avec encore 5,5GB de RAM disponibles. (WCCFTech, TweakTown, Hacker News)
Pourquoi c’est important : c’est une preuve de concept, pas un produit. Un modèle de 400 milliards de paramètres peut tourner sur un smartphone avec 12GB de mémoire, parce qu’à tout moment seule une petite partie du modèle est active (MoE), le reste étant transféré en streaming depuis le SSD intégré du téléphone à la demande, plutôt que d’être en résidence dans la mémoire. Mais en appliquant la même astuce à des modèles beaucoup plus petits — par exemple des modèles de 7 milliards ou 14 milliards de paramètres — sur des puces mobiles de stockage de prochaine génération plus rapides, vous obtenez une IA réellement utilisable, avec une vitesse de conversation, qui s’exécute entièrement localement sur l’appareil, sans cloud.
Un AI Agent réalise à lui seul toute une série d’expériences en physique des particules
Des chercheurs du MIT publient un cadre nommé JFC (Just Furnish Context), montrant qu’un agent LLM construit à partir de Claude Code peut exécuter de manière autonome une chaîne complète d’analyse de physique des hautes énergies : sélection des événements, estimation du bruit de fond, quantification de l’incertitude, inférence statistique et rédaction de l’article. Le système s’exécute sur des données ouvertes provenant des détecteurs ALEPH, DELPHI et CMS. (arXiv 2603.20179)
Pourquoi c’est important : c’est l’une des démonstrations les plus claires de ce que l’IA agentic peut automatiser des flux de travail scientifiques de bout en bout dans des domaines où la rigueur méthodologique est extrêmement élevée. L’implication d’investissement directe pointe vers la re-analyse de jeux de données historiques dans les domaines de la physique, de la génomique et des sciences des matériaux : des données d’archives accumulées depuis des décennies qui n’ont toujours pas été suffisamment exploitées.