Les nouvelles les plus importantes de la journée

La désinformation renforcée par l’IA générative n’est pas très efficace, mais pour combien de temps ?

La désinformation renforcée par l’IA générative n’est pas très efficace, mais pour combien de temps ?

L’IA générative, n’est-elle pas le tsunami annoncé pour la désinformation sur les réseaux sociaux ? C’est la conclusion d’un rapport trimestriel de Meta, la maison mère de Facebook, Messenger, WhatsApp, Instagram et Threads, publié jeudi 15 août. Les tactiques basées sur l’IA générative ne semblent apporter que des gains de productivité marginaux « aux campagnes de désinformation russes », a déclaré David Agranovich, directeur des équipes de cybersécurité de Meta. Plus rassurant encore : jusqu’à présent, « Les IA génératives n’ont pas entravé notre capacité à contrer  » des opérations d’ingérence étrangère dans les élections, a-t-il ajouté lors de la présentation de ce rapport.

Cela signifie-t-il que la situation est sous contrôle pour l’élection présidentielle américaine de novembre ? Pas si vite, mais Meta fait en tout cas face à une forte pression des autorités américaines et des ONG pour éliminer la désinformation de ses plateformes depuis le scandale Cambridge Analytica en 2016. Pour rappel, il s’agissait d’une firme de marketing qui avait piloté d’importantes opérations de désinformation sur Facebook, au profit de la Russie, pour influencer l’élection présidentielle américaine en faveur de Donald Trump, ainsi que le vote britannique sur la sortie de l’Union européenne en faveur du Brexit.

Alerte électorale de novembre

En fait, les différentes entités spécialisées dans les campagnes de propagande utilisent bel et bien l’intelligence artificielle générative, car cette technologie permet à chacun de créer facilement, rapidement et à moindre coût des contenus de qualité (messages, images, fausses photographies ou vidéos, etc.) prêts à être diffusés en masse.

Mais les images produites par Doppelganger, une campagne de deux ans menée depuis la Russie pour affaiblir le soutien à l’Ukraine,  » ne semblent pas être soumis à un contrôle de qualité « , a souligné David Agranovich.

 » Il y a des mains qui se confondent ou des signes avec un charabia illisible. « , a-t-il détaillé.  » Dans de nombreux cas, la clarté du message semble secondaire par rapport à la stratégie consistant à envoyer beaucoup de choses en espérant que cela aura un succès. « .

Et dans tous les cas, les équipes Meta dédiées à la détection de ces opérations d’influence traquent avant tout  » comportements inauthentiques et coordonnés « , montrant qu’il ne s’agit pas d’utilisateurs réguliers.  » L’utilisation de l’IA générative pour créer du contenu ou des photos de profil ne nous a pas empêché, jusqu’à présent, de continuer à surveiller et détecter ces opérations.  » a-t-il expliqué.

A l’approche des élections américaines de novembre, Meta s’attend à ce que les groupes affiliés au gouvernement russe intensifient leurs efforts pour tenter d’influencer la campagne. Le groupe californien a souligné la nécessité de coopérer avec les autorités, avec les chercheurs mais aussi avec d’autres entreprises technologiques. Même si cela est plus compliqué avec X, anciennement Twitter, depuis qu’Elon Musk a racheté la plateforme fin 2022.

Utilisation massive mais résultats parfois grossiers

Même si Meta – qui est à la fois juge et jury – se veut rassurant sur l’impact réel de l’IA générative sur la désinformation, cette technologie reste une menace que les chercheurs prennent très au sérieux.

Même si son utilisation massive donne lieu à des manipulations parfois grossières comme les faux sites médias de l’opération russe Doppelganger pour saper le soutien à l’Ukraine en Occident, leur capacité à toucher tout le monde ne doit pas être sous-estimée, car même s’ils sont minoritaires à chaque campagne, de nombreux internautes tombent encore dans le piège.

Ainsi, selon les données du collectif Antibot4Navalny, qui traque les opérations d’influence numérique liées à la Russie, des milliers de bots (comptes automatiques) sont utilisés quotidiennement par la propagande pro-russe sur X.

Au lendemain du massacre du Crocus City Hall près de Moscou le 22 mars, le collectif a compté plus de deux millions de messages sur X en moins de 24 heures, accusant l’Ukraine et l’Occident d’avoir facilité l’attaque ainsi que la fuite des assaillants, une théorie similaire à celle développée, initialement, par les autorités russes. Pendant la durée de chaque épisode (événement d’importance planétaire, NLDR), le fonctionnement quotidien régulier est interrompu : tous les bots (…) sont entièrement dédiés à l’épisode en question « , a observé Antibot4Navalny.

Un répit de courte durée ?

Meta – comme Google, propriétaire de YouTube – sera donc sous pression pour continuer à traquer efficacement les campagnes de désinformation dans les mois à venir. Mais les élections européennes sont rassurantes : la prolifération des deepfakes et autres contenus générés par l’IA générative n’a pas significativement influencé le vote, ont constaté Meta et Google.

« Sur les 1 300 menaces que nous identifions par an, nous n’en avons pas encore vu une seule où l’IA était le principal outil de différenciation.a expliqué Sandra Joyce, vice-présidente de Google Threat Intelligence, en juin dernier. Même si la technologie est utilisée d’une certaine manière, elle ne permet pas à ces acteurs de se surpasser. Nous avons vu l’utilisation de fausses images, de voix truquées, de textes générés par l’IA, etc. Mais pour l’instant, les acteurs derrière ces menaces sont surtout des expérimentateurs.

Quitter la version mobile