- Plus de 21 % des rapports d’évaluation pour une conférence majeure en IA (ICLR 2024) ont été entièrement générés par IA, selon Pangram.
- Les éditeurs scientifiques testent des outils d’IA pour analyser les soumissions, tandis que le système traditionnel de relecture par les pairs est déjà sous tension.
- L’usage non déclaré de l’IA par les évaluateurs est qualifié de « toxique » par les acteurs du secteur, créant une zone grise éthique pour les auteurs.
- Cette automatisation partielle pourrait aggraver les failles existantes du contrôle qualité, comme en témoignent les rétractations récentes dans Nature et Science.
Un système traditionnel déjà à bout de souffle
La revue par les pairs, ce processus où des experts bénévoles évaluent la qualité et la validité des travaux avant publication, est le pilier de la crédibilité scientifique. « Mais ce système souffre », rappelle Thomas Lemberger, responsable de la Science ouverte chez EMBO Press. Il évoque une lenteur chronique – plusieurs mois à un an –, la difficulté de recruter des relecteurs sursollicités et une infaillibilité illusoire.
Les failles du modèle éclatent au grand jour. En 2024, les prestigieuses revues Nature et Science ont chacune dû rétracter trois articles, selon le site Retraction Watch. Un contexte où la production scientifique explose, avec plus de 3 millions d’articles publiés annuellement.
C’est dans ce paysage fragile que l’intelligence artificielle générative fait une entrée massive. L’entreprise Pangram estime que 21 % des 70 000 rapports produits pour l’évaluation des soumissions à l’ICLR 2024, une conférence phare en apprentissage automatique, ont été intégralement rédigés par une IA.
Face à cette intrusion, les grands éditeurs comme Elsevier ou Springer Nature explorent et testent des plateformes d’IA pour analyser les articles soumis. Officiellement, ces outils sont présentés comme des assistants, à condition que leur usage soit déclaré et supervisé par un humain.
Mais la réalité sur le terrain est plus trouble. « Faire ses rapports sans dire qu’on a eu recours à l’IA est toxique », assure Thomas Lemberger. Il décrit un malaise croissant : « Les auteurs ne savent pas trop quelle attitude adopter face à ces rapports dans lesquels ils sentent que quelque chose ne va pas. »
Cette opacité crée une zone grise éthique majeure. La détection automatique des textes générés par IA, bien que proposée par des acteurs comme Pangram, reste un défi technique. L’inquiétude des observateurs est que l’IA, plutôt que de résoudre les problèmes de la relecture par les pairs, ne fasse qu’en amplifier les défauts, en remplaçant progressivement l’expertise humaine critique par une automatisation peu fiable.
Cette automatisation rampante de l’évaluation scientifique touche au cœur de la fiabilité de la recherche, base de l’innovation et des décisions politiques. Pour les entreprises, elle questionne la valeur des brevets et études sur lesquels elles s’appuient. Pour le secteur de l’IA, c’est un test grandeur nature de son intégration éthique, avec un marché émergent pour la détection. Enfin, cela force une réflexion urgente sur la gouvernance et les cadres légaux encadrant l’usage de l’IA dans la production de connaissance.
Le monde va à toute vitesse. Et si vous embauchiez une assistante personnelle IA ?
Découvrez Lisa, une assistante virtuelle intelligente qui gère vos emails, suit vos projets, se connecte à vos outils (agenda, documents, finances) et construit une mémoire persistante de ce qui compte pour vous. Chaque jour, elle transforme le flot d’informations en décisions claires, protège vos 6 dimensions d’équilibre de vie et automatise vos routines. Pour seulement 10 € par mois, vous pouvez l’embaucher dès maintenant.