Bourse Entreprise

Un rapport révèle comment les groupes néonazis utilisent l’algorithme de TikTok à leur avantage

Les réseaux suprémacistes blancs et néonazis utilisent TikTok comme outil de propagande et de recrutement, selon un rapport publié lundi 29 juillet par l’Institut pour le dialogue stratégique (ISD) et révélé par le magazine spécialisé CâbléSpécialisée dans l’analyse des réseaux sociaux, cette organisation indépendante décortique les techniques utilisées par les comptes ouvertement d’extrême droite pour contourner les règles de modération de la plateforme et utiliser son puissant algorithme de recommandation à leur avantage.

À partir d’un compte néonazi préalablement identifié, les chercheurs de l’ISD ont mis au jour un réseau de 200 profils du même type sur TikTok. Après avoir parcouru certains de leurs contenus à l’aide d’un compte utilisateur vierge, ils ont pu constater que des vidéos d’extrême droite similaires leur étaient ensuite très rapidement suggérées sur la page « Pour vous », qui affiche les vidéos sélectionnées par l’algorithme de recommandation de l’application. Un phénomène de renforcement algorithmique déjà largement documenté, les vidéos apparaissant sur la page « Pour vous » étant fonction notamment de ce que l’internaute a précédemment visionné, du temps passé sur chaque contenu ou encore de ses « likes ».

Mais l’étude de l’ISD montre surtout que les groupes d’extrême droite semblent avoir très bien compris comment TikTok peut servir leurs intérêts. Ils mettent en place des réseaux de comptes qui se suivent afin d’accroître leur visibilité. « tactique de suivi pour suivi » – qui peut être traduit par « tu me suis-je te suis » – selon le rapport, « méthode classique pour obtenir un réseau à mailles serrées permettant un plus grand engagement (Les internautes) » Et « faciliter une croissance rapide ». « Des dizaines de comptes ont des noms, des photos de profil et un nombre d’abonnés et de suivis presque identiques, ce qui indique qu’il s’agit de comptes en double du même utilisateur. »les auteurs expliquent.

Lire aussi | Article réservé à nos abonnés Comment expliquer le succès de Jordan Bardella sur TikTok ?

Les personnes derrière ces comptes néonazis se trouvent souvent en dehors de TikTok, sur des chaînes Telegram. C’est là qu’ils partagent des vidéos, des images et des sons à diffuser, et qu’ils se coordonnent pour maximiser leur visibilité sur la plateforme chinoise. L’ISD a répertorié plus d’une centaine de chaînes de ce type sur Telegram, une application notoirement connue pour son absence quasi totale de modération.

Stratégies pour contourner la modération

L’étude montre également l’éventail des stratégies développées par ces comptes d’extrême droite pour contourner la modération de TikTok, dont beaucoup sont déjà connues : l’utilisation d’un langage codé ou d’émojis spécifiques (comme la boîte de jus, « jus » en anglais, qui par homophonie est proche de « les Juifs » – « Juifs »), l’intégration de mots-clés à l’orthographe volontairement altérée, ou encore le choix minutieux d’une image d’appel en apparence neutre – celle qui apparaît avant de cliquer sur une vidéo – afin de masquer le véritable objectif du contenu.

Le rapport détaille également comment l’utilisation d’extraits audio ou musicaux spécifiques, sans contenir d’éléments explicitement racistes ou haineux, peut servir de « clin d’œil », de référence. « Sur TikTok, une recherche sur une chanson que le kamikaze de Christchurch écoutait en conduisant après avoir tué 51 musulmans donne 1 200 vidéosPrenons l’exemple des auteurs. Parmi elles, sept vidéos sur dix célébraient l’attaque, son objectif ou le tueur, voire la recréaient dans un jeu vidéo.

Lire aussi | FRDeter : sur Telegram, un groupe d’extrême droite soupçonné de préparer des actions violentes

Les recherches de l’ISD ont permis d’identifier des comptes néonazis en anglais ainsi qu’en français, en hongrois, en allemand et en russe, explique Câblé Nathan Doctor, l’un des auteurs du rapport, affirme que même s’il ne peut pas dire qu’il existe une quelconque coordination entre ces groupes à l’échelle internationale, ils se reconnaissent et interagissent entre eux.

Le rapport de l’ISD dénonce enfin le manque de réactivité de TikTok envers ces comptes qui propagent des contenus haineux. « Ces tactiques révèlent pourquoi TikTok ne parvient pas à résoudre ce problème.regrettent les auteurs. La plateforme semble supprimer des comptes ou des vidéos individuellement plutôt que de s’en prendre au réseau dans son ensemble. Ainsi, lorsque des utilisateurs sont bannis, ils peuvent souvent recréer leurs comptes et obtenir une amplification rapide pour leur nouveau contenu. Sur les cinquante comptes signalés, un peu moins de la moitié ont été bannis au bout d’un mois.

« Les comportements, organisations et idéologies haineux n’ont pas leur place sur TikTok, et nous supprimons plus de 98 % de ce type de contenu avant même qu’il ne nous soit signalé. »Réponds à Câblé un porte-parole de TikTok. La société ajoute qu’elle a plus de « 40 000 modérateurs ».

Lire aussi | De quoi TikTok est-il accusé ? Soft power, espionnage, données personnelles…

Le monde

Réutiliser ce contenu

Ray Richard

Head of technical department in some websites, I have been in the field of electronic journalism for 12 years and I am interested in travel, trips and discovering the world of technology.
Bouton retour en haut de la page