L’abus de l’IA déferle sur le monde académique, entraînant une baisse de la qualité des articles et des processus de revue, des contenus erronés infiltrant le système de recherche, ce qui pousse les conférences internationales à renforcer leurs réglementations. La confiance dans le milieu académique est ainsi confrontée à un risque de collapse.
Dans le contexte du développement rapide des technologies d’intelligence artificielle à l’échelle mondiale, le milieu de la recherche en IA est en proie à une crise de confiance sans précédent. Au cours des dernières années, le système de revue des conférences académiques de premier plan a été submergé par un grand nombre de soumissions de faible qualité. Les chercheurs ont constaté que la proportion de contributions humaines dans de nombreux articles et dans le contenu de l’évaluation par les pairs (Peer Review) diminue de manière significative. Cette tendance soulève des inquiétudes qui ne se limitent pas à un changement de style d’écriture, mais touchent surtout à la précision du contenu. Lorsque la rigueur devient la pierre angulaire de la recherche académique, les erreurs générées par des outils automatisés s’infiltrent insidieusement dans les résultats.
Inioluwa Deborah Raji, chercheuse à l’Université de Californie à Berkeley (UC Berkeley), souligne que le milieu académique est enthousiaste à l’idée de transformer d’autres industries avec l’IA, mais ironie du sort, cette industrie elle-même est plongée dans le chaos à cause de l’abus généralisé de l’IA.
Les données montrent que l’ampleur de cette crise atteint un niveau d’alerte. Selon un rapport publié en août 2025 par l’Université de Stanford, jusqu’à 22% des articles en informatique montrent des signes d’utilisation de grands modèles de langage (LLM). La startup d’analyse de texte Pangram a découvert, lors d’une enquête pour la conférence internationale sur la représentation de l’apprentissage (ICLR) 2025, que environ 21% des avis d’évaluation étaient entièrement générés par IA, et plus de la moitié des processus de revue utilisaient une assistance par IA pour l’édition. Pire encore, environ 9% des soumissions contenaient plus de la moitié de leur contenu produit par IA.
Thomas G. Dietterich, professeur honoraire à l’Université d’État de l’Oregon (Oregon State University), observe que le volume de soumissions sur la plateforme arXiv, plateforme de prépublications en accès libre, a également fortement augmenté, en partie parce que les chercheurs se sont rués vers elle, mais surtout à cause de l’effet de levier des outils d’IA.
Face à la vague de publications de faible qualité et de commentaires automatisés, le milieu académique est arrivé à un point de basculement où des mesures doivent être prises. En novembre 2024, lors de l’ICLR, un reviewer a découvert un article suspecté d’être généré par IA, dont la note de revue se plaçait parmi les 17% des soumissions les mieux notées, ce qui a suscité de vives interrogations sur le système d’évaluation actuel. En janvier 2025, la société de détection GPTZero a analysé 50 articles présentés lors de la conférence NeurIPS, un des plus grands événements en intelligence artificielle, et a identifié plus de 100 erreurs de génération automatique. Ces erreurs incluaient des références fictives et des données erronées dans des graphiques, compromettant gravement la rigueur scientifique.
Pour faire face à cette situation, l’ICLR a mis à jour ses règles d’utilisation : si un article ne révèle pas honnêtement l’usage massif de modèles linguistiques, il sera directement rejeté ; de même, les reviewers soumettant des commentaires automatisés de faible qualité s’exposent à un refus de leur propre article.
Hany Farid, professeur en informatique à UC Berkeley, met en garde sérieusement : si la communauté scientifique continue à publier des articles erronés et de faible qualité, la société perdra la confiance fondamentale envers les scientifiques. En réalité, la croissance du nombre d’articles dépasse largement l’évolution des techniques de détection. Par exemple, en 2020, le nombre de soumissions à NeurIPS était de 9 467, en 2024 il a atteint 17 491, et en 2025 il a explosé à 21 575. Des cas extrêmes ont même été rapportés, avec un seul auteur soumettant plus de 100 articles en une année, ce qui dépasse manifestement la capacité humaine de production normale. Actuellement, le milieu académique manque encore de standards unifiés pour la détection automatisée de textes, rendant la prévention difficile.
Source : Professeur Hany Farid, UC Berkeley
Derrière cette inflation académique se mêlent des enjeux de compétition commerciale complexe et des considérations pragmatiques. Avec des salaires élevés dans l’industrie de l’IA et une compétition technologique féroce, une partie du secteur de la recherche est contrainte de privilégier la quantité plutôt que la qualité. La surenchère du marché attire de nombreux amateurs cherchant des résultats rapides, ce qui dilue la profondeur académique. Cependant, les experts insistent sur la nécessité de distinguer « utilisation raisonnable » et « abus ».
Thomas G. Dietterich mentionne que, pour les chercheurs non anglophones (comme ceux de Chine), les outils d’IA peuvent effectivement aider à améliorer la clarté de l’expression linguistique. Ce type d’assistance à l’écriture a permis, dans une certaine mesure, d’améliorer l’efficacité de la communication dans les articles, et doit être considéré comme une utilisation positive.
Mais la crise plus profonde concerne la « pollution des données » qui menace le futur du développement de l’IA. Des géants technologiques comme Google, Anthropic et OpenAI encouragent l’utilisation de modèles comme partenaires de recherche dans des secteurs tels que la biologie ou les sciences de la vie, et ces modèles sont eux-mêmes entraînés sur des textes académiques.
Hany Farid souligne que si les données d’entraînement sont saturées de contenus synthétiques générés par l’homme, la performance des modèles en pâtira considérablement.
Des études passées ont déjà montré que lorsque de grands modèles de langage sont alimentés avec des données automatisées non filtrées, ils finissent par s’effondrer et produire des informations dénuées de sens. Kevin Weil, responsable du département scientifique chez OpenAI, confie que, bien que l’IA puisse accélérer considérablement la recherche, la supervision humaine et la vérification restent indispensables, car aucun outil technologique ne peut remplacer la rigueur nécessaire au processus scientifique.
Ce contenu a été synthétisé par l’agent cryptographique à partir des informations de diverses sources, édité par « Cryptocity ». Il est encore en phase de formation, et pourrait contenir des biais ou des erreurs. Ce contenu est fourni à titre informatif uniquement, et ne doit pas être considéré comme un conseil en investissement.