Les nouvelles les plus importantes de la journée

Articles « faux » : l’IA s’immisce dans les publications scientifiques : Actualités

Articles « faux » : l’IA s’immisce dans les publications scientifiques : Actualités

Une image d’un rat avec un pénis géant, une autre montrant une jambe humaine avec trop d’os, des formulations suspectes… Des exemples récents confirment un usage de plus en plus important de l’intelligence artificielle (IA) dans les publications scientifiques, au détriment de leur qualité.

Si les spécialistes interrogés par l’AFP reconnaissent l’intérêt d’outils comme ChatGPT pour aider à la rédaction de contenus, notamment en termes de traduction pour tous les chercheurs dont la langue maternelle n’est pas l’anglais, plusieurs rétractations récentes de revues ont mis en évidence l’existence de pratiques malhonnêtes.

Plus tôt cette année, une illustration d’un rat aux organes génitaux surdimensionnés, largement partagée sur les réseaux sociaux, a conduit à la rétractation d’une étude publiée dans une revue de l’éditeur universitaire Frontiers, un poids lourd du secteur.

Le mois dernier, une autre étude a été rétractée après avoir présenté une image d’une jambe humaine avec… trop d’os.

Au-delà de ces illustrations erronées, le plus grand bouleversement du secteur semble venir de ChatGPT, l’outil conversationnel développé par la société américaine OpenAI et basé sur l’IA.

Une étude publiée par le groupe d’édition scientifique britannique Elsevier est devenue virale en mars : son introduction commençait par « certainement, voici une introduction possible pour votre sujet », une formule typique des réponses ChatGPT.

– « Usines d’articles » –

Ces échecs embarrassants, ayant échappé à la vigilance des experts chargés de revoir les études avant publication, restent rares et n’auraient probablement pas passé les filtres de contrôle des revues les plus prestigieuses, ont indiqué à l’AFP plusieurs spécialistes.

L’utilisation de l’IA est souvent difficile à détecter, mais semble augmenter de manière significative dans la littérature scientifique.

Andrew Gray, bibliothécaire à l’University College de Londres, a épluché des millions d’articles scientifiques à la recherche de mots comme « méticuleux », « complexe » et « louable », souvent galvaudés par l’IA. Il estime qu’au moins 60 000 articles auront été produits grâce à l’IA en 2023, soit 1 % de la production annuelle, et que 2024 devrait voir une « augmentation significative » de ces chiffres.

De son côté, l’association américaine Retraction Watch a observé un record de 13 000 rétractations d’articles dans le domaine scientifique en 2023, un nombre sans précédent. Pour Ivan Oransky, l’un de ses cofondateurs, l’IA permet désormais d' »industrialiser » la production de « faux » papiers par des « usines » à articles.

Ces acteurs produisent de nombreux articles de mauvaise qualité, plagiés ou faux, explique la microbiologiste néerlandaise Elisabeth Bik, spécialisée dans la détection de fausses images.

Payées par des chercheurs incités à produire toujours plus, ces « usines » seraient responsables d’environ 2% des publications chaque année, mais ce chiffre « explose » à cause de l’IA, selon cet expert.

– Garde-corps –

Pour Ivan Oransky, l’IA ne fait qu’alimenter un « problème écrasant » : la demande insatiable d’articles de la part des éditeurs et des universités exerce une pression sur les chercheurs, classés en fonction de leur production, créant un « cercle vicieux ».

Dans le même temps, les mesures de protection contre les « usines » à papier demeurent insuffisantes.

Le problème de ces fraudes massives avait été révélé notamment après le rachat de l’éditeur Hindawi par l’entreprise américaine Wiley en 2021, qui a été suivi depuis par le retrait de quelque 11 300 articles précédemment publiés par Hindawi. Pour tenter de résoudre ce problème grandissant, Wiley a mis en place un « service de détection d’usines à articles » pour détecter les abus de l’IA, un service lui-même propulsé par l’IA.

Mais la semaine dernière, un chercheur américain a néanmoins découvert ce qui semble être une version réécrite par ChatGPT d’un de ses propres articles, publié dans une revue Wiley.

Samuel Payne, professeur de bioinformatique à l’université Brigham Young aux Etats-Unis, a déclaré à l’AFP qu’on lui avait demandé en mars de vérifier l’étude en question. Après avoir réalisé qu’il s’agissait d’un « plagiat » de sa propre étude réécrite par une IA, il a refusé d’approuver la publication.

M. Payne a déclaré qu’il avait été « choqué » de constater qu’au lieu d’être rétracté, le travail plagié avait simplement été publié dans une autre revue.

publié le 10 août à 08h35, AFP

Quitter la version mobile