La plupart des modèles d’IA générative sont truffés de biais politiques
⇧ (VIDÉO) Vous pourriez également aimer ce contenu partenaire
Les progrès rapides de l’intelligence artificielle continuent de susciter des inquiétudes chez les experts, sans parler des décideurs politiques et des entreprises. Comme d’autres technologies à fort impact, l’IA générative doit être gérée avec une grande responsabilité, notamment en raison des risques qu’elle fait peser sur les équilibres économiques et politiques. Ces systèmes peuvent en effet déstabiliser même les plus grandes structures et contribuer à diffuser à grande échelle la désinformation politique, sans parler de l’addiction qu’elle provoque déjà chez certains utilisateurs. Une nouvelle étude révèle également que les grands modèles linguistiques (LLM) sont imprégnés de divers biais politiques. En particulier, les réponses seraient davantage orientées vers la droite ou la gauche selon le modèle d’IA utilisé.
Une nouvelle base de données, l’AI Risk Repository, créée par le groupe FutureTech CSAIL du MIT en collaboration avec plusieurs partenaires, recense plus de 700 risques que pourraient présenter les systèmes d’IA. Dans la base de données, les préjugés et la discrimination représentent 63 % des risques les plus courants. Pour déterminer ce pourcentage, l’équipe s’est appuyée sur des bases de données de prépublications détaillant les risques liés à l’IA et a également passé au peigne fin divers articles évalués par des pairs.
Parmi les publications examinées figurait une étude de l’Université de Washington, de l’Université Carnegie Mellon et de l’Université Jiaotong de Xi’an. Cette dernière a cherché à évaluer si les modèles linguistiques des modèles d’IA génératifs étaient politiquement biaisés. Depuis le succès de ChatGPT, le géant technologique OpenAI a fait face à de nombreuses critiques de la part de commentateurs de droite, qui ont fait valoir que le chatbot reflétait une vision du monde plus libérale. L’entreprise, pour sa part, affirme que les examinateurs humains ont été invités à ne favoriser aucun groupe politique lors de l’affinement du modèle d’IA.
Cependant, Chan Park, doctorante à l’université Carnegie Mellon et membre de l’équipe de recherche, n’est pas d’accord. Elle a déclaré dans un article de la MIT Technology Review : Nous pensons qu’aucun modèle linguistique ne peut être totalement exempt de tout parti pris politique. « Dans le cadre de cette étude, les scientifiques ont testé 14 des plus grands modèles linguistiques pour comprendre les hypothèses et les préjugés politiques impliqués.
Des biais présents à chaque étape du développement d’un modèle d’IA
Pour commencer, l’équipe a décidé d’analyser de près les différents processus de développement d’un modèle d’IA génératif. L’étude s’est déroulée en trois étapes. Dans la première, les chercheurs ont voulu connaître les tendances politiques des modèles d’IA et ont demandé à 14 modèles d’approuver ou de désapprouver 62 déclarations politiques. Selon leur analyse, ils ont constaté que chaque modèle avait une tendance politique différente. BERT, par exemple, un modèle développé par Google, était plus conservateur socialement, alors que les modèles d’OpenAI ne l’étaient pas. En effet, les modèles GPT ont été formés sur des textes trouvés sur Internet, qui sont généralement plus libéraux.
Dans la deuxième phase de l’étude, les chercheurs ont cherché à savoir si les données d’entraînement pouvaient influencer les biais politiques lors de l’affinement des modèles. Pour ce faire, Park a déclaré que son équipe avait entraîné deux anciens modèles, dont GPT-2 d’OpenAI et RoBERTa de Meta, « sur des ensembles de données constitués de données de médias d’information et de médias sociaux provenant de sources de droite et de gauche ». Les chercheurs ont constaté que cette approche confirmait leur hypothèse. En effet, les résultats ont montré que les données d’entraînement renforçaient les biais des modèles linguistiques.
Dans la dernière étape, ils ont mesuré comment les tendances politiques des modèles d’IA affectaient les types de contenu que les modèles classaient comme discours de haine ou de désinformation. L’analyse a révélé que, d’une part, les modèles formés sur des données de gauche étaient sensibles aux discours de haine et aux commentaires ciblant les minorités religieuses, ethniques et sexuelles aux États-Unis. D’autre part, les modèles formés sur des données de droite étaient plus sensibles aux discours de haine ciblant les chrétiens.
Les chercheurs admettent que les tests qu’ils ont menés ne suffisent pas à mesurer dans quelle mesure les biais et les nuances politiques influencent les modèles d’IA. Quoi qu’il en soit, ils tirent la sonnette d’alarme : les entreprises doivent être conscientes de ce risque lorsqu’elles intègrent l’IA générative dans leurs produits. Il n’y a pas d’équité sans sensibilisation » dit Park.
Voir aussi
Outre les préjugés politiques, l’AI Risk Repository souligne également que la robustesse des systèmes d’IA et la protection de la vie privée représentent respectivement 76 % et 61 % des risques associés aux modèles linguistiques. Ce que notre base de données indique, c’est que l’éventail des risques est considérable et qu’ils ne peuvent pas tous être contrôlés à l’avance. » explique Neil Thompson, directeur du MIT FutureTech et l’un des créateurs de la base de données.
Cependant, même avec cette nouvelle base de données, il reste difficile d’identifier les risques les plus préoccupants liés à l’IA. Cependant, selon ses créateurs, l’AI Risk Repository ouvre la voie à de futures recherches, notamment en se concentrant sur les risques qui ne sont pas suffisamment étudiés. Ce qui nous préoccupe le plus, c’est de savoir s’il existe des lacunes. » conclut Thompson.