Franceinfo a étudié les préjugés sexistes que les internautes ont notés de la part de l’IA, tels que Chatgpt, Grok ou le chat de Mistral AI.
Publié
Mis à jour
Temps de lecture: 5min
Qu’est-ce que je pense vraiment? Les intelligences artificielles génératives – celles qui créent du contenu, du texte, du son ou même de l’image selon la demande qui leur sont faites – sont au cœur de nombreuses questions depuis plusieurs années maintenant, et surtout ces derniers mois avec leur vulgarisation générale. Parmi eux, nous pensons évidemment à Chatgpt de l’American Openai, mais aussi à Grok accessible via X, propriété d’Elon Musk ou de leur équivalent français, le chat de Mistral Ai. Certains internautes ont trouvé les biais sexistes produits par ces intelligences artificielles, biais sur lesquels Franceinfo a étudié.
Ces IA ont d’abord été testées sur plusieurs exemples. Lorsqu’on lui a demandé une photo d’une cuisine, c’est une femme qui est représentée presque à chaque fois. Généralement, elle est mince, elle porte un tablier, une casserole et une cuillère à la main. Elle sourit toujours, visiblement ravie de cuisiner.
D’un autre côté, s’ils sont invités à une personne avec une étoile Michelin qui cuisine, cette fois, c’est un homme qui apparaît, un homme blanc, avec une barbe bien coupée et le look sérieux.
Nous observons ces mêmes stéréotypes dans le domaine médical. En demandant à AI une photo de quelqu’un qui est infirmière, c’est une fois de plus une femme qui sort, au chevet des patients, à nouveau mince et souriante. D’un autre côté, si nous recherchons une illustration de la profession de chirurgien, c’est un homme prêt à se déplacer vers le bloc qui apparaît presque systématiquement.
Parmi les dizaines et dizaines d’images générées sur GPT CHAT, GROK ou même sur l’IA française, le chat, les personnes handicapées sont également complètement invisibles et sont, presque à chaque fois, des blancs qui sont suggérés par l’IA.
Pour comprendre ce fonctionnement biaisé de l’IA générative, Franceinfo a montré les exemples ci-dessus à Jean-Michel Loubes, directeur de recherche à INRIA, l’Institut national de recherche en sciences et technologies. « Cela vient de la façon dont l’IA est formée, Avancez le spécialiste. Les IA sont motivées par les développeurs, à partir de données disponibles sur Internet, et ces données, en fin de compte, reflètent les biais de nos entreprises. L’IA apprendra donc d’abord ces biais, mais l’IA fera même pire car l’IA amplifiera ces biais. «
« C’est le fonctionnement de l’IA qui est impliqué. »
Jean-Michel Loubes, directeur de recherche chez INRIAen Franceinfo
Le fonctionnement de l’IA fait l’objet de certaines œuvres de Jean-Michel Loubes. Pour lui, les données ne sont pas la seule responsable de ces biais: « Les algorithmes d’optimisation à la base de l’IA auront le plus majoritaire et donc le raisonnement le plus simpliste. Nous appellerions cela des stéréotypes, explique-t-il. L’IA apprend donc les préjugés du monde et les généralisera ensuite. Ils raisonnent comme nous, nous pouvons être tentés de prendre des solutions simples qui ont l’apparence de la vérité. «
Selon Jean-Michel Loubes, nous pouvons entraîner l’IA pour corriger ses préjugés en lui montrant les stéréotypes qu’elle utilise, afin qu’elle les corrige, qu’elle apprenne de ses erreurs. L’autre piste d’amélioration de l’IA consiste à intégrer des règles pour respecter en amont, lorsqu’elles sont développées et configurées.
Il y a quelques semaines, le Président de l’Assemblée nationale, Yaël Braun-Pivet, a comparé les performances de l’American Ai Chat GPT et du chat français AI le. À la demande « Représente-moi deux personnes, l’une présidant l’Assemblée nationale, l’autre PDG d’une grande entreprise « D’une part, l’IA américaine affiche deux hommes de plus de 50 ans années, tandis que, dans l’autre, l’IA française montre un homme et une femme.
« Premièrement, cela nous dit qu’en France, les développeurs d’IA sont conscients de ces problèmes de parti pris et essaient de lutter contre ces problèmes de biais, réagit Jean-Michel Loubes. La solution technique qui est choisie, selon toute vraisemblance, est sans aucun doute pour modifier, a priori, les données d’entrée pour pouvoir forcer l’IA à afficher des images qui sont diverses, qui sont des hommes et des femmes. » Contactés sur les préjugés observés sur leur IA, les Français de Mistral Ai n’ont pas suivi.
Les développeurs devront en tout cas lutter contre ces stéréotypes dans les années à venir. Premièrement, parce que l’IA, en Europe, est soumise à un cadre juridique et que les entreprises qui les développent pourraient bientôt être exposées à des sanctions financières si des biais sont observés et qu’ils ne sont pas corrigés. Ce qui sera particulièrement surveillé, c’est l’impact que ces stéréotypes pourraient avoir sur nos vies, en creusant, par exemple, des inégalités déjà existantes.
hd1
Alors qu'Elio, l'enfant de 8 ans souffrant d'une maladie cutanée est toujours empêchée d'aller à…
Patrick Schwarzenegger ne veut pas que sa carrière se résume à qui sont ses parents.…
À 36 ans, le double champion du monde avec les Blues a décidé de mettre…
Le bâtiment Cardo avait déjà été bloqué début février. Depuis lors, des leçons ont eu…
Emmanuel Dunand / AFP Marine Tondelier (ici avec Julien Bayou en 2022) se défend après…
Deuxième long métrage de Judith Davis, Bonjour asile Utilisez Comic Springs pour suivre Jeanne (Judith…