Les nouvelles les plus importantes de la journée

Les outils d’IA minent nos propres yeux et oreilles – POLITICO

Cet article fait partie d’une série, Bots et bulletins de vote : Comment l’intelligence artificielle remodèle les élections dans le monde entier.

Avez-vous déjà vu un deepfake ? Plus important encore, pouvez-vous faire la différence entre ces images, clips audio et vidéos générés par l’IA et la réalité ?

Alors que plus de 2 milliards d’électeurs dans 50 pays se préparent pour les élections nationales de 2024, cette question – et la capacité de ces deepfakes à fausser les décisions des électeurs potentiels lors des urnes – n’a jamais été aussi critique.

Exemple concret : ces derniers mois, les gens ont de plus en plus signalé des images, des audios et des vidéos deepfakes alimentés par l’IA sur X (anciennement Twitter), selon un examen par la Brookings Institution des soi-disant notes communautaires de la plateforme, une initiative de vérification des faits participative. Sur la plateforme.

POLITICO a décidé de vous mettre à l’épreuve.

En utilisant Midjourney, un laboratoire de recherche en IA dont la technologie peut créer des images réalistes basées sur la simple saisie de suggestions sur la plateforme en ligne de l’entreprise, POLITICO a collecté une série d’images réelles – et celles générées par l’intelligence artificielle. Des essais répétés à l’échelle mondiale ont montré qu’en moyenne, les gens peuvent détecter les contrefaçons numériques par rapport aux images légitimes environ 60 % du temps, selon les responsables d’entreprises technologiques avec lesquels POLITICO s’est entretenu.

Bien que la technologie soit encore en chantier, la capacité de quiconque – y compris les journalistes de POLITICO – à créer des images aussi réalistes en quelques clics sur un clavier inquiète les politiciens, les décideurs politiques et les experts en désinformation.

Si l’IA met un tel pouvoir entre les mains de toute personne disposant d’un ordinateur portable, d’une connexion Internet et de 50 $ pour accéder à ces puissants outils, un tel contenu politique truqué pourrait inonder les flux des réseaux sociaux dans les mois à venir.

Dans quelle mesure allez-vous réussir ?

Qui veut être un clone ?

Parmi les menaces potentielles de deepfake cette année, les experts en cybersécurité et en désinformation sont les plus préoccupés par l’audio.

Jusqu’à présent, presque toutes les images controversées générées par l’IA ont été démystifiées en quelques heures, principalement en raison du pouvoir des médias sociaux à collecter rapidement des erreurs dans ces photos qui seraient autrement imperceptibles. Les grandes entreprises technologiques et les vérificateurs de faits indépendants ont également donné la priorité à la recherche et à la suppression de ces mensonges nuisibles à motivation politique.

Mais l’audio – en particulier les clips granuleux alimentés par l’IA qui ont été utilisés sans succès pour diffamer le chef du parti travailliste britannique Keir Starmer – reste un territoire inexploré. Le décalage entre ce que les gens entendent et ce qu’ils voient peut souvent faire croire aux individus qu’un clip audio incendiaire et deepfake est légitime.

Pour tester cette théorie, POLITICO a utilisé des technologies disponibles dans le commerce – coûtant moins de 50 $ au total à l’achat – pour voir à quel point il était facile de générer un clip audio deepfake. Au départ, nous allions cloner de vrais politiciens. Mais comme de tels mensonges sont à la fois juridiquement douteux et représentent une menace directe pour le cycle électoral de cette année, nous avons plutôt décidé d’imiter les voix des journalistes de POLITICO.

Vous pouvez juger par vous-même si ces clips générés par l’IA sont suffisamment bons pour vous tromper.

AI Biden contre AI Trump

La prochaine frontière des deepfakes de l’IA est la vidéo, en particulier le contenu qui peut interagir avec les humains en temps réel.

Et lorsqu’il s’agit de photos à motivation politique basées sur l’IA, un immeuble de bureaux de l’ère soviétique près de la frontière germano-polonaise est devenu le point de départ pour démontrer l’évolution de cette technologie.

Là, au milieu d’un groupe d’activistes connu sous le nom de Singularity Group, des chercheurs ont créé un débat vidéo en ligne en temps réel entre un Joe Biden alimenté par l’IA et un Donald Trump généré par l’IA.

Le projet, qui dure depuis près de neuf mois, utilise une technologie dite open source, ou des modèles d’IA librement accessibles au public. Il permet à quiconque de saisir une question de débat – via le service de streaming Twitch, propriété d’Amazon – puis les robots Biden/Trump se mettent sous tension, calculent une réponse via les systèmes d’IA de Singularity et la recrachent, imitant les voix et les images des politiciens.

« Les deepfakes sont une réelle préoccupation », a déclaré Reese Leysen, l’un des activistes à l’origine du projet qui, surtout, est qualifié de parodie sur Twitch. « Nous voulions nous concentrer sur les politiciens pour que les gens le remarquent. »

POLITICO a posé plusieurs questions de débat du monde réel aux faux Biden et Trump. La plupart étaient soit trop osés, soit trop grossiers pour être publiés – ce qui n’est pas surprenant, étant donné que ce système d’IA a été formé sur des personnes aléatoires qui lui posent des questions sur Internet depuis près d’un an.

Mais voici les deux vidéos les moins graphiques. La technologie est-elle parfaite ? Définitivement pas. Mais c’est un aperçu de la direction que prennent les choses.

Emma Krstic, Olivia Martin, Saga Ringmar et Aoife White ont contribué au reportage.

Quitter la version mobile