NouvellesNouvelles locales

Un label de K-pop intente un procès pour avoir falsifié des images pornographiques de ses artistes


JYP Entertainment lance une action en justice pour condamner les « deepfakes », des contenus pornographiques générés à l’aide de l’intelligence artificielle, qui affectent massivement le pays.

Une importante maison de disques sud-coréenne s’est engagée vendredi à prendre des mesures juridiques énergiques contre les vidéos. « faux profonds » représentant ses artistes K-pop, après la révélation de l’existence de chaînes Telegram partageant des contenus pornographiques générés par l’intelligence artificielle, qui a choqué le pays. Des manifestations ont eu lieu à Séoul.

« Nous sommes très préoccupés par la récente diffusion de vidéos truquées impliquant nos artistes »a déclaré JYP Entertainment, le label de plusieurs groupes de K-pop, dont le groupe de filles Twice. « Nous rassemblons toutes les preuves pertinentes afin de prendre les mesures juridiques les plus fortes possibles (…) sans aucune clémence »JYP Entertainment a été ajouté.

Plus tôt cette semaine, le président Yoon Suk Yeol a appelé à une enquête sur la pornographie deepfake (« pornographie deepfake »). De nombreux médias du pays ont rapporté ces dernières semaines l’explosion de ces deep fakes qui insèrent des visages dans des contenus à caractère sexuel grâce à des logiciels d’intelligence artificielle.

Les auteurs de ces deep fakes utilisent parfois des plateformes de réseaux sociaux comme Instagram pour enregistrer ou capturer des photos de leurs victimes. Les principales victimes sont des filles et des jeunes femmes, la police affirmant qu’environ 60 % de ces victimes sont mineures.

D’Instagram au suicide

L’annonce de JYP Entertainment intervient environ deux mois après qu’un autre label de K-pop, ADOR, a déclaré que la police enquêtait sur les créateurs et les distributeurs qui ont profité d’un faux profonds représentant les chanteuses d’un de leurs groupes, NewsJeans.

La Corée du Sud est le pays le plus touché par ces faux contenus pornographiques deepfake, selon un rapport de 2023 de la startup de cybersécurité Security Hero, les chanteuses et actrices du pays représentant 53 % des personnes présentées dans les contenus examinés.

En 2019, la star de K-pop Goo Hara s’est suicidée à l’âge de 28 ans après avoir subi un autre type de violence sexuelle en ligne, « porno de vengeance » (contenu sexuel privé partagé sans consentement sur Internet) et les menaces d’un ex-petit ami mécontent.

hd1

Gérard Truchon

An experienced journalist in internal and global political affairs, she tackles political issues from all sides
Bouton retour en haut de la page