Bourse Entreprise

Trois questions sur le futur marquage des contenus générés par l’IA sur les réseaux sociaux du groupe Meta

L’entreprise californienne va étiqueter les sons, images et vidéos identifiés comme ayant été créés avec l’intelligence artificielle. Ses dirigeants promettent de mettre en œuvre cette nouvelle politique à partir du mois de mai.

Publié


Mise à jour


Temps de lecture : 5 minutes

Un smartphone avec des applications du groupe Meta, le 4 février 2024. (JONATHAN RAA / AFP)

Une nouvelle fonctionnalité pour mieux superviser les sons, images et vidéos générés par l’Intelligence Artificielle (IA). LLe groupe Meta va identifier les contenus générés par l’intelligence artificielle (IA) sur ses réseaux à partir du mois de mai. « Nous sommes d’accord avec l’argument… selon lequel notre approche actuelle est trop étroite », explique Monika Bickert, vice-présidente en charge des politiques de contenu chez la maison mère de Facebook, Instagram et Threads, dans un article de blog publié vendredi 5 avril.

Ce changement promis par le groupe fondée par Mark Zuckerberg approuve la nouvelle approche de Meta en matière d’IA. Mais, sans surprise, ce futur étiquetage de masse se heurte à des problèmes techniques. Franceinfo explique.

1 Pourquoi Meta adopte-t-il une nouvelle politique pour le contenu généré par l’IA ?

En mai 2023, un clip vidéo fait sensation. On y voit le président américain Joe Biden touchant la poitrine de sa petite-fille avant de l’embrasser. Accompagné de la légende « pédophile malade », la vidéo devient virale sur Facebook. Mais il s’agit en fait d’un montage basé sur une vidéo tournée après les élections de mi-mandat d’octobre 2022. Dans les images originales, le 46e président des États-Unis échange en réalité un autocollant avec sa petite-fille. J’ai voté », avant de l’embrasser sur la joue.

Contacté par un utilisateur du réseau social, le Conseil de surveillance, organe indépendant du groupe Meta, avait alors pointé un défaut important : le contenu n’est pas en violation de la politique du groupe. LL’organisation a cependant répondu aux critiques formulées à l’égard de la politique de Meta dans son rapport.ugée « peu convaincant, incohérent et déroutant ». Le Conseil a demandé à la multinationale américaine de « réviser sa politique sur les médias manipulés » et intelligence artificielle.

À cette politique de modération dépassée s’ajoutent des inquiétudes quant à l’impact de l’IA générative sur l’opinion publique. Lors d’une réunion organisée le 4 mai 2023 à la Maison Blanche avec les dirigeants de Google, Microsoft, OpenAI et Anthropic, pour évoquer les risques posés par le développement de l’intelligence artificielle, la vice-présidente américaine, Kamala Harris, a appelé les entreprises à la responsabilité. , en vue de l’élection présidentielle américaine de novembre 2024.

Selon elle, l’IA pourrait « augmentent considérablement les menaces à la sécurité, portent atteinte aux droits de l’homme et à la vie privée et sapent la confiance du public dans la démocratie ».

Face à ces multiples critiques venues du sommet de l’Etat américain, le groupe californien a opéré un changement de cadre. Dans un billet de blog publié le 6 février, le président des affaires internationales de Meta, Nick Clegg, a annoncé l’ambition de son entreprise : certifier la provenance des images diffusées sur les réseaux sociaux de son groupe. Meta va donc étiqueter avec un « Fabriqué avec l’IA » (« made with AI ») toutes les images présentant « des signaux (…) montrant qu’ils sont générés par l’intelligence artificielle ».

Monika Bickert, vice-président en charge des politiques de contenus du groupe, explique les raisons de cette évolution du groupe californien. « Notre politique sur les médias manipulés a été rédigée en 2020, à une époque où les contenus réalistes générés par l’IA étaient rares et où la principale préoccupation était les vidéos »souligne-t-elle dans une note publiée le 5 avril.

2 Comment Meta détectera-t-il le contenu généré par l’IA ?

Cet étiquetage des contenus produits par l’IA reposera d’abord sur l’analyse de métadonnées qui définissent les propriétés associées à un fichier ou une image, comme l’explique le Journal du Net. Mais pour réaliser cette opération numérique à grande échelle, Meta doit se mettre d’accord sur « normes communes » avec les entreprises à l’origine de logiciels d’IA générative comme « OpenAI, Microsoft, Adobe, Midjourney et Shutterstock.

En plus de détecter ces « métadonnées »la société mère de Threads, Facebook et Instagram, souhaite identifier toute présence de « filigrane », un filigrane invisible à l’œil nu, de la taille d’un pixel, apposé sur les images générées par une IA. Comme l’explique Pierre Fernandez, doctorant à l’Institut national de recherche en sciences et technologies du numérique (Inria), à nos confrères de 20 minutesce tatouage numérique « permet d’ajouter des informations pour distinguer le vrai du faux ».

Cette analyse d’authenticité aura lieu avant la publication d’une image sur un réseau social Meta. « A chaque fois qu’on télécharge une image (…), il y a un traitement : soit une compression d’image, soit un changement de taille… Ça ne coûte pas cher d’ajouter une petite brique de détection intérieure », souligne auprès de l’AFP Gaëtan Le Guelvouit, expert en tatouage numérique à l’Institut de Recherche Technologique b-com.

Meta a également précisé qu’elle continuerait à supprimer de ses plateformes tout contenu – qu’il soit créé par un humain ou une IA – qui contreviendrait à ses règles. « contre l’ingérence dans le processus électoral, l’intimidation, le harcèlement, la violence (…) ou toute autre politique contenue dans nos normes communautaires ».

3 Où sont les autres réseaux sociaux ?

Meta n’est pas le seul réseau social confronté à l’abondance de contenu généré par l’IA. En septembre 2023, TikTok a proposé une nouvelle fonctionnalité à ses utilisateurs leur permettant d’étiqueter « contenu généré par l’IA ». Toutefois, cette option est volontaire et son application n’est pas obligatoire pour les vidéos et photos créées par une IA et publiées sur la plateforme. « Les créateurs (…) pourront l’appliquer à tout contenu entièrement généré ou modifié de manière significative »souligne le réseau social chinois dans un article de blog.

Le réseau social X (anciennement Twitter), propriété d’Elon Musk, a adopté une politique de marquage basée sur un outil collaboratif : « notes communautaires ». Présentées comme des garde-fous pour lutter contre la désinformation véhiculée par l’IA, ces notes doivent être approuvées par plusieurs internautes avant publication.

Ray Richard

Head of technical department in some websites, I have been in the field of electronic journalism for 12 years and I am interested in travel, trips and discovering the world of technology.
Bouton retour en haut de la page