Categories: Bourse Entreprise

La plupart des modèles d’IA générative sont truffés de biais politiques

⇧ (VIDÉO) Vous pourriez également aimer ce contenu partenaire

Les progrès rapides de l’intelligence artificielle continuent de susciter des inquiétudes chez les experts, sans parler des décideurs politiques et des entreprises. Comme d’autres technologies à fort impact, l’IA générative doit être gérée avec une grande responsabilité, notamment en raison des risques qu’elle fait peser sur les équilibres économiques et politiques. Ces systèmes peuvent en effet déstabiliser même les plus grandes structures et contribuer à diffuser à grande échelle la désinformation politique, sans parler de l’addiction qu’elle provoque déjà chez certains utilisateurs. Une nouvelle étude révèle également que les grands modèles linguistiques (LLM) sont imprégnés de divers biais politiques. En particulier, les réponses seraient davantage orientées vers la droite ou la gauche selon le modèle d’IA utilisé.

Une nouvelle base de données, l’AI Risk Repository, créée par le groupe FutureTech CSAIL du MIT en collaboration avec plusieurs partenaires, recense plus de 700 risques que pourraient présenter les systèmes d’IA. Dans la base de données, les préjugés et la discrimination représentent 63 % des risques les plus courants. Pour déterminer ce pourcentage, l’équipe s’est appuyée sur des bases de données de prépublications détaillant les risques liés à l’IA et a également passé au peigne fin divers articles évalués par des pairs.

Parmi les publications examinées figurait une étude de l’Université de Washington, de l’Université Carnegie Mellon et de l’Université Jiaotong de Xi’an. Cette dernière a cherché à évaluer si les modèles linguistiques des modèles d’IA génératifs étaient politiquement biaisés. Depuis le succès de ChatGPT, le géant technologique OpenAI a fait face à de nombreuses critiques de la part de commentateurs de droite, qui ont fait valoir que le chatbot reflétait une vision du monde plus libérale. L’entreprise, pour sa part, affirme que les examinateurs humains ont été invités à ne favoriser aucun groupe politique lors de l’affinement du modèle d’IA.

Cependant, Chan Park, doctorante à l’université Carnegie Mellon et membre de l’équipe de recherche, n’est pas d’accord. Elle a déclaré dans un article de la MIT Technology Review : Nous pensons qu’aucun modèle linguistique ne peut être totalement exempt de tout parti pris politique. « Dans le cadre de cette étude, les scientifiques ont testé 14 des plus grands modèles linguistiques pour comprendre les hypothèses et les préjugés politiques impliqués.

Des biais présents à chaque étape du développement d’un modèle d’IA

Pour commencer, l’équipe a décidé d’analyser de près les différents processus de développement d’un modèle d’IA génératif. L’étude s’est déroulée en trois étapes. Dans la première, les chercheurs ont voulu connaître les tendances politiques des modèles d’IA et ont demandé à 14 modèles d’approuver ou de désapprouver 62 déclarations politiques. Selon leur analyse, ils ont constaté que chaque modèle avait une tendance politique différente. BERT, par exemple, un modèle développé par Google, était plus conservateur socialement, alors que les modèles d’OpenAI ne l’étaient pas. En effet, les modèles GPT ont été formés sur des textes trouvés sur Internet, qui sont généralement plus libéraux.

Dans la deuxième phase de l’étude, les chercheurs ont cherché à savoir si les données d’entraînement pouvaient influencer les biais politiques lors de l’affinement des modèles. Pour ce faire, Park a déclaré que son équipe avait entraîné deux anciens modèles, dont GPT-2 d’OpenAI et RoBERTa de Meta, « sur des ensembles de données constitués de données de médias d’information et de médias sociaux provenant de sources de droite et de gauche ». Les chercheurs ont constaté que cette approche confirmait leur hypothèse. En effet, les résultats ont montré que les données d’entraînement renforçaient les biais des modèles linguistiques.

Dans la dernière étape, ils ont mesuré comment les tendances politiques des modèles d’IA affectaient les types de contenu que les modèles classaient comme discours de haine ou de désinformation. L’analyse a révélé que, d’une part, les modèles formés sur des données de gauche étaient sensibles aux discours de haine et aux commentaires ciblant les minorités religieuses, ethniques et sexuelles aux États-Unis. D’autre part, les modèles formés sur des données de droite étaient plus sensibles aux discours de haine ciblant les chrétiens.

Les chercheurs admettent que les tests qu’ils ont menés ne suffisent pas à mesurer dans quelle mesure les biais et les nuances politiques influencent les modèles d’IA. Quoi qu’il en soit, ils tirent la sonnette d’alarme : les entreprises doivent être conscientes de ce risque lorsqu’elles intègrent l’IA générative dans leurs produits. Il n’y a pas d’équité sans sensibilisation  » dit Park.

Voir aussi

Autres risques à prendre en compte

Outre les préjugés politiques, l’AI Risk Repository souligne également que la robustesse des systèmes d’IA et la protection de la vie privée représentent respectivement 76 % et 61 % des risques associés aux modèles linguistiques. Ce que notre base de données indique, c’est que l’éventail des risques est considérable et qu’ils ne peuvent pas tous être contrôlés à l’avance.  » explique Neil Thompson, directeur du MIT FutureTech et l’un des créateurs de la base de données.

Cependant, même avec cette nouvelle base de données, il reste difficile d’identifier les risques les plus préoccupants liés à l’IA. Cependant, selon ses créateurs, l’AI Risk Repository ouvre la voie à de futures recherches, notamment en se concentrant sur les risques qui ne sont pas suffisamment étudiés. Ce qui nous préoccupe le plus, c’est de savoir s’il existe des lacunes.  » conclut Thompson.

Source : arXiv
Ray Richard

Head of technical department in some websites, I have been in the field of electronic journalism for 12 years and I am interested in travel, trips and discovering the world of technology.

Recent Posts

Ngapeth revient à Poitiers pour la saison 2024-25, une aubaine pour le Championnat de France

La surprise a été totale. Y compris pour sa mère, Christine, entraînée par son aînée à la soirée de présentation…

4 secondes ago

La Villa des Cœurs Brisés – Saison 09 Épisode 29 du 19 septembre 2024 – La Villa des Cœurs Brisés

La semaine de la tentation commence enfin pour les filles qui trouvent des prétendants pour une sortie en bateau. Cette…

1 minute ago

Le spécialiste du reconditionné Back Market fête ses 10 ans

Chez un sous-traitant de Back Market, à Sainte-Luce-sur-Loire (Loire-Atlantique), le 26 janvier 2021. LOIC VENANCE / AFP Back Market a…

2 minutes ago

Le Tchétchène Ramzan Kadyrov accuse Elon Musk d’avoir « désactivé » son Tesla Cybertruck

Ramzan Kadyrov, qui dirige la Tchétchénie d'une main de fer depuis plus de 17 ans, a partagé en août une…

3 minutes ago

Laurent Wauquiez annonce avoir refusé un poste à Bercy

Selon son entourage, le leader de la droite à l'Assemblée ne participera pas au nouveau gouvernement. Publié 19/09/2024 20:28 Mis…

4 minutes ago

Le Bayer Leverkusen frappe fort à Rotterdam

Le club allemand a parfaitement débuté sa campagne européenne en s'imposant nettement sur le terrain du Feyenoord jeudi (0-4). Le…

5 minutes ago