Les nouvelles les plus importantes de la journée

Une IA se permet de sexualiser un locuteur

Une IA se permet de sexualiser un locuteur

Une conférencière a fait une découverte particulière : la photo qu’elle a partagée en prévision d’un futur événement dans lequel elle devait prendre la parole a été retravaillée par l’intelligence artificielle. Il semble qu’elle ait été légèrement sexualisée ce faisant. Une anecdote qui pose indirectement la question de savoir comment sont entraînées les IA génératives.

Faudra-t-il aussi construire des intelligences artificielles loin des humains, à l’image de ce que tentent de faire les internautes avec le web ? C’est l’une des questions qui pourraient se poser à la lecture de l’histoire partagée sur X (ex-Twitter) par Elizabeth Laraki, une conférencière américaine spécialisée dans les sujets liés à l’IA et à l’expérience utilisateur (UX). .

Dans son message publié le 15 octobre sur le réseau social, elle raconte une expérience surprenante à laquelle elle a été confrontée. La photo qu’elle a fournie pour la promotion prochaine d’une conférence à laquelle elle doit assister a été retravaillée par une intelligence artificielle générative, et au passage légèrement sexualisée.

Une blouse plus ouverte

Sur la photo initiale, l’intervenante porte une blouse bleue entrouverte au niveau du col, ce qui permet de mettre en valeur un pendentif. Mais l’image a été retravaillée par l’IA (le type de prestation utilisé n’a pas été mentionné), le chemisier a été déboutonné davantage, afin de laisser apparaître légèrement un morceau de soutien-gorge, ou un sous-vêtement.

Une décision de la part de l’organisation du colloque de jouer sur le sex-appeal des participants ? Il semble, selon l’explication d’Elizabeth Laraki, qu’il s’agisse plutôt d’un résultat involontaire, conséquence d’une série d’erreurs dans le processus destiné à promouvoir l’événement. Une séquence qu’elle raconte dans son tweet.

Source : Elizabeth Laraki
Avant/après. // Source : Elizabeth Laraki

Selon les enquêtes de l’organisateur, relayées par Elizabeth Laraki, la responsable de la communication sur leurs réseaux sociaux  » utilisé une image recadrée (de l’intervenant, NDLR) depuis leur site Internet. Elle avait besoin qu’il soit plus vertical, elle a donc utilisé un outil d’extension d’image pour l’agrandir. », a-t-elle déclaré.

L’intelligence artificielle générative alors » a inventé la partie inférieure de l’image (dans laquelle elle pense que les chemises des femmes devraient être davantage déboutonnées, avec une certaine tension au niveau des boutons, et révéler un petit soupçon de quelque chose en dessous) « . Des sous-vêtements qui n’existent pas sur la vraie photo.

Retravail effectué par l’IA. // Source : Elizabeth Laraki

Dans l’image fausse qu’il donne, la présence du soutien-gorge est discrète, de quoi en tout cas parvenir à tromper la vigilance de celle qui s’est chargée du réglage de la photo pour les réseaux sociaux. Cela dit, la bonne nouvelle est que les choses sont rapidement revenues à la normale : la fausse photo a été supprimée et des excuses ont été présentées.

Suivez l’actualité de l’IA avec la newsletter Numerama

La question des données de formation

Cette histoire qui relève d’une anecdote soulève cependant un problème technique. Toute intelligence artificielle générative est construite sur la base des données de formation qui lui sont fournies. Entraîner une IA à reconnaître un chat, la méthode courante en deep learning (apprentissage profond) implique d’exposer le modèle à d’autres images de chats.

Dès lors, le cas rapporté par Elizabeth Laraki nous amène à nous interroger sur le corpus de données qui a permis de constituer le modèle utilisé par la personne ; plus largement, cela amène aussi à se poser la question de savoir comment les femmes sont représentées, ou se représentent, sur Internet, si le service qui a formé le modèle prenait librement des photos en ligne.

Ces problématiques sont loin d’être nouvelles. Ils ont également été interrogés dans d’autres circonstances. En 2018 par exemple, une étude du MIT soulignait que certains algorithmes étaient surentraînés sur des photos d’hommes blancs, ce qui les rendait moins efficaces pour les personnes ayant des couleurs de peau différentes.

Selon le contenu du corpus utilisé pour entraîner une IA, il existe un risque de reproduire, via le système, des biais et des stéréotypes. Un sujet qui n’est pas totalement résolu à ce stade, comme en témoigne cette histoire, et qui concerne aussi le texte : en 2023, la manière dont ChatGPT s’est constitué avait été au cœur d’un débat politique en France.

Pour aller plus loin

Quitter la version mobile