le crash test du DSA contre les ingérences étrangères à la veille des élections
La loi sur les services numériques jouera-t-elle le rôle attendu de « Bouclier démocratique » A 40 jours des élections européennes ? Bruxelles augmente en tout cas la pression. Après X (anciennement Twitter), TikTok et Alibaba, c’est au tour de Meta de faire l’objet d’une enquête de Bruxelles pour non-respect de cette loi visant à réguler et assainir la vie en ligne. La Commission européenne, qui a officiellement lancé la procédure mardi 30 avril, soupçonne Facebook et Instagram de ne pas respecter leurs obligations en matière de lutte contre la désinformation.
« Cette Commission a mis en place des outils pour protéger les citoyens européens de la désinformation et de la manipulation par des pays tiers »a souligné la présidente Ursula von der Leyen, dans un communiqué qui rappelle que Facebook et Instagram rassemblent 250 millions d’utilisateurs actifs mensuels en Europe. « Si nous soupçonnons une violation des règles, nous agissons. C’est toujours vrai, mais surtout lors des élections. »
Cette enquête est justement un bon moyen d’évaluer l’efficacité de la loi sur les services numériques, dont l’un des enjeux majeurs est la lutte contre la désinformation. Si Meta n’apporte pas de modifications ou ne fournit pas la preuve qu’elle respecte les règles européennes, elle s’expose à une amende pouvant aller jusqu’à 6 % du chiffre d’affaires. Selon la gravité des infractions, Bruxelles peut également contraindre Meta à quitter le marché européen, mais il est peu probable que la procédure aille aussi loin, estime jeans–Rémi de Maistre, co-fondateur et PDG de Legal Tech Jus Mundi et expert en matière d’arbitrage international.
« On voit bien ici la différence de méthode entre l’Union européenne et les Etats-Unis », observe-t-il. Aux Etats-Unis, c’est bien plus radical : TikTok est soupçonné d’être un outil d’ingérence chinoise, l’application est menacée de disparition dans le pays. La Commission ne supprime pas Meta, mais elle fait pression pour que la plateforme soit modifiée.»
« Empêcher que les vulnérabilités d’Instagram et de Facebook soient utilisées par des acteurs d’influence étrangers »
Bruxelles reproche à la firme américaine son laxisme dans la modération des publicités politiques. « Nous ouvrons ce dossier contre Meta pour garantir que des mesures efficaces soient prises pour empêcher que les vulnérabilités d’Instagram et de Facebook soient utilisées par des influenceurs étrangers »a expliqué dans un communiqué le commissaire européen chargé du marché intérieur, Thierry Breton.
Certains responsables bruxellois font directement référence à des campagnes venant du Kremlin, qui pourraient jouer en faveur des candidats pro-russes.
La suppression d’un outil clé pour les vérificateurs de faits et les chercheurs
Par ailleurs, l’UE pointe la manière dont Facebook et Instagram rendent invisibles certains contenus politiques (shadow bannissement) sans avertir les utilisateurs, une pratique contraire au principe de transparence du DSA. Dans le viseur également : les mécanismes de signalement des contenus illégaux, qui ne seraient pas assez visibles. Enfin, la Commission européenne reproche à Meta d’avoir supprimé son outil CrowdTangle. Or, c’est un élément clé dans la lutte contre la désinformation. Elle permet aux chercheurs et journalistes de surveiller la viralité d’une publication, et donc la diffusion de fausses nouvelles sur Facebook et Instagram. A partir du 14 août, il ne sera plus disponible. Meta affirme que sa Meta Content Library et son API Meta Content Library auront les mêmes fonctions, mais les chercheurs en doutent.
La Commission demande donc à Meta d’évaluer les conséquences de la suppression de cet outil et de fournir les informations dans un délai de cinq jours ouvrables. « La Commission se réserve le droit de prendre des mesures si ces actions sont jugées insuffisantes »précise le communiqué.
Le premier véritable test de l’efficacité du DSA
L’enquête bruxelloise intervient quelques jours après la publication d’un rapport de l’ONG AI Forensics. Cela montre que la majorité des publicités politiques circulant sur les plateformes Meta n’étaient pas identifiées comme telles. Et moins de 5 % de ces contenus politiques étaient correctement modérés. Facebook a notamment laissé proliférer une campagne de désinformation pro-russe ciblant les agriculteurs européens, les incitant à s’opposer à l’entrée de l’Ukraine dans l’Europe. AI Forensics montre également que l’opération de désinformation russe Doppelganger (des histoires de propagande diffusées via des sites copiant de vrais médias) a une portée 5 à 10 fois plus grande que ce que Meta suggère.
Dans son rapport, l’ONG a appelé la Commission européenne à ouvrir une enquête. Elle semble avoir été entendue. Son directeur Marc Faddoul s’en félicite dans un communiqué. « Cette action constitue un tournant dans la lutte de l’UE contre la désinformation. Cela montre que l’UE intensifie ses efforts pour gérer cette crise de l’information. A la veille des élections européennes, c’est le premier véritable test de l’efficacité du DSA, notamment contre les opérations de manipulation étrangère ». Raziye Buse Çetin, directrice de la communication de l’ONG, estime que l’enquête est une chose, mais qu’elle ne suffira pas. « Meta doit mettre en œuvre des changements algorithmiques durables et renforcer la modération du contenu pour lutter contre la désinformation. »
Au-delà de ce rapport, « L’Union européenne voit aussi certainement ce qui se passe en Inde, qui est en période d’élections législatives, et où l’on assiste à des cas de désinformation massive, notamment produite à moindre coût grâce aux outils de communication. IA », ajoute Jean-Rémi de Maistre. Quoi « faire monter la pression ».
Meta n’a pas directement commenté les débats. « Nous disposons d’un processus bien établi pour identifier et atténuer les risques sur nos plateformes. Nous sommes impatients de poursuivre notre coopération avec la Commission européenne et de leur fournir de plus amples détails sur ce travail. »a réagi un porte-parole auprès de l’AFP.