L’abandon annoncé par la méta de son programme de vérification des faits et ses systèmes de détection de discours de haine pourrait entraîner l’arrêt de 97% de ses travaux de modération actuels.
La nouvelle politique de modération de Meta, Mère Maison de Facebook et Instagram, risque d’augmenter « Désinformation et contenu dangereux » Sur ces deux réseaux, une ONG ONG en ligne a alerté lundi en ligne. Selon une étude du Center for Counter Digital Hate (CCDH), l’abandon annoncé par la méta de son programme de vérification des faits et ses systèmes de détection de discours de haine pourrait entraîner l’arrêt de 97% de son travail de modération actuel et donc par un « RAZ-DE-MARÉE » de contenu préjudiciable aux internautes.
L’ONG a effectué cette estimation en analysant les principaux changements annoncés par Meta le 7 janvier, y compris le remplacement de la vérification des faits par des notes communautaires, ou l’abandon de ses règles sur « Immigration, identité de genre et genre ». « Meta doit expliquer à ses utilisateurs pourquoi il abandonne une approche qu’il a présentée comme efficace contre la désinformation et la polarisation » Opinion, le CCDH souligne dans son rapport.
Le 7 janvier, quelques jours avant la nomination de Donald Trump, Meta Boss, Mark Zuckerberg, avait annoncé qu’il allait « Effacer les vérifications des faits et les remplacer par des notes communautaires »croyant que les élections avaient marqué un « Retour culturel » don « Priorité à la liberté d’expression » Le groupe californien avait ajouté à manquer « simplifier » ses règles et « Abolir un certain nombre de limites concernant des sujets tels que l’immigration et le sexe, qui ne sont plus dans des discours dominants ». Ce revirement a été récemment suivi par l’annonce d’un changement de politique du réseau social Elon Musk X.
Lire aussi
« Il deviendra un puzzle commercial »: la modération à 180 ° de Meta plonge les annonceurs en incertitude
Le conseiller proche de Donald Trump a promis jeudi dernier « réparer » X fonctionnalité permettant aux utilisateurs de nier ou de qualifier des publications potentiellement fausses, accusant « Gouvernements et médias traditionnels » Pour le prendre, dans un contexte de dissension avec l’Ukraine. Pour le patron du CCDH, Imran Ahmed, si les notes de la communauté restent « Un ajout bienvenu aux mesures de sécurité des plateformes »Ce modèle basé sur la participation des internautes « Ne peut pas et ne peut jamais remplacer complètement les équipes de modération dédiées et la détection IA ».
L’AFP participe à plus de 26 langues dans un programme de vérification des faits développé par Facebook, qui paie plus de 80 médias à travers le monde, pour utiliser leur « Vérices de faits » Sur sa plate-forme, sur WhatsApp et sur Instagram.
« Data-script = » https://static.lefigaro.fr/widget-video/short-ttl/video/index.js « >