L’intelligence artificielle pourrait-elle influencer les résultats ?
FIGAROVOX/TRIBUNE – Selon un rapport, 62% des Américains déclarent avoir vu ou entendu parler d’images générées par l’IA depuis le lancement de la campagne présidentielle. La banalisation de cet outil nécessite une nouvelle législation, estime l’enseignante Ophélie Roque.
Ophélie Roque est professeur de français en banlieue parisienne. Elle a publié Mesa Noire (Robert Laffont, 2023), son premier roman.
Tout commence par une image. Une vision aussi fascinante qu’improbable qui tourne et revient sur X : Donald Trump sortant de l’eau (que la pudeur se rassure, habillé !) et tenant, blottis contre sa poitrine, un chaton et un caneton. Un internaute perplexe serait en droit de s’interroger sur le but avoué d’une telle apparition, mais ce serait oublier qu’en Amérique rien n’est jamais gratuit. Inutile de le nier, la création d’images grâce à des logiciels d’intelligence artificielle (IA) aura un impact – peut-être décisif – sur les résultats de cette élection présidentielle made in USA.
Midjourney, DALL-E ou, plus récemment, Grok génèrent sans cesse toute une cohorte de représentations aussi fausses que mémorables. Nous ne sommes plus à l’ère du divertissement potache ou du bricolage parodique, derrière l’humour pointe la volonté d’influencer les résultats électoraux. Bien que fausses, ces images (même lorsque le curseur est volontairement placé du côté de l’absurde) sont ressenties comme réelles. Ce n’est pas le cas mais cela pourrait l’être, sous le faux se cache une vérité probable, le faux serait donc en fin de compte Plus vrai que la vérité ! Un rapport publié par l’Université de Stanford indique que 62% des Américains interrogés déclarent avoir vu, ou entendu parler, d’images générées par l’IA pendant la campagne présidentielle américaine.
Les spécialistes en stratégie digitale ont compris que les images servaient deux objectifs principaux : conceptualiser les peurs et donner vie aux fantasmes.
Ophélie Roque
Plus avancé que son rival démocrate, le parti républicain n’hésite plus à bombarder la sphère médiatique de clips de campagne dopés à la testostérone et aux ajouts numériques. Dans ce genre, la célèbre vidéo intitulée « Beat Biden » qui montrait un avenir proprement apocalyptique en cas de réélection de celui qui est, toujours, l’actuel président.
Loin d’être anodines, ces images influencent les électeurs en accentuant leurs craintes. Une étude menée par le Pew Research Center révèle que 47 % d’entre eux avouent que leur perception d’un candidat est dépendante de ces images. Une personne sur deux reconnaît ainsi que le faux finit par prendre le pas sur la vérité. Et pour ceux qui se croient protégés, qu’en est-il réellement ? Car, qu’on le veuille ou non, les images s’ancrent d’autant plus facilement dans les mémoires qu’elles suscitent en nous des émotions primaires. Elles renforcent des biais cognitifs préexistants et confirment notre perception. Une image vaut toujours mille mots. Vous l’aurez compris, on ne réinvente jamais complètement la roue !
Regarder une photographie ou un dessin améliorerait la mémorisation de l’information de 30 % par rapport au texte seul. Lire que Trump est un idiot est une chose, le voir représenté dans une camisole de force en est une autre. Ainsi, les images radicalisent les phénomènes de polarisation politique en renforçant les croyances déjà présentes chez un individu. En clair, l’image sert moins à convaincre l’ennemi qu’à fidéliser son partisan. Quitte à fanatiser parfois le débat.
A lire aussi« Une arme pour discréditer un adversaire politique » : mise en garde contre les « deepfakes », ces vidéos manipulées par l’intelligence artificielle
Les spécialistes de la stratégie numérique ont compris que les images servent essentiellement à deux choses : conceptualiser les peurs et donner vie aux fantasmes. Tout est toujours « trop ». Amoureux de la bienséance et du juste milieu, il est temps de passer à l’arrière-plan. Peut-être est-ce le moindre mal et l’on pourrait toujours envisager le pire avec ce qui serait une potentielle diffusion massive de fausses photographies trop « réelles » pour être rapidement détectées. Il n’en demeure pas moins que tout cela soulève de nombreuses inquiétudes éthiques. La banalisation de l’IA et sa capacité à créer – en un dixième de seconde – des réalités alternatives « visibles » pourraient en venir à nous faire douter de ce qu’est, ou n’est pas, la réalité. Faut-il les réglementer ? Et si oui, comment ? Surtout, qui dit contrôle, dit atteinte. Rappelons que nous sommes aux États-Unis où le peuple est tatillon sur ses droits. Par ailleurs, où s’arrête la liberté d’expression et où commence la propagande ? Faut-il autoriser uniquement les « errances artistiques » émanant d’« individus » et interdire celles générées par les partis politiques ?
Actuellement, des projets de loi tentent d’encadrer et de mieux réguler l’utilisation de l’IA, des garde-fous appropriés sont étudiés et testés. Au niveau fédéral, le « AI Bill of Rights » vise à établir un processus unifié qui encouragerait leur développement tout en traçant des limites à ne pas franchir. C’est ainsi que le projet de loi HR 4623 proposé au Congrès propose de sanctionner sévèrement toute utilisation malveillante ou inappropriée de l’IA en période politique. Quant à savoir si cette mesure pourrait un jour être appliquée, c’est une autre histoire qui ne peut s’écrire en images.