Quelques heures seulement après les funérailles d’Alain Delon, le défunt acteur a été utilisé pour une arnaque de très mauvais goût…
Il n’aura pas fallu longtemps pour que la mort du monstre sacré du cinéma soit exploitée. Alain Delon est décédé le 19 août dernier à son domicile de Douchy. Le lendemain de sa mort, une arnaque exploitant l’image de l’acteur a émergé sur les réseaux sociaux. Une publicité, créée grâce à l’intelligence artificielle, montre l’acteur délivrant un étrange message…
Alain Delon : l’étrange vidéo publiée après sa mort
« Si vous regardez cette vidéo, c’est que je suis déjà mort (…) J’ai décidé de distribuer une partie de mon argent à tous les Français, chacun pourra gagner 4 000 euros. J’espère que ma fille a déjà lancé cette application (…) Il ne vous reste plus qu’à recharger votre compte et retrouver Pinco. Je laisse le lien de l’application sous la vidéo. » C’est La Pointe Françaiseune page Facebook, qui a publié cette étrange vidéo.
Pour espérer bénéficier d’une partie de l’argent d’Alain Delon, les démarches sont simples : s’inscrire sur le site du casino en ligne et évidemment, verser de l’argent sur ledit site. Mais attention, il s’agit bien entendu d’une vaste arnaque et le Guépard n’a jamais prononcé de tels mots !
Alain Delon, au cœur d’une arnaque : une terrible tromperie
Mais alors comment les escrocs ont-ils fait ? Comment a-t-on réussi à faire parler Alain Delon ? Tout simplement en utilisant une technique de synthèse multimédia basée sur l’intelligence artificielle, très en vogue en ce moment. Cette technique est plus connue sous le nom de « deepfake » Synthétiser la voix et l’apparence de n’importe quelle personne, y compris en vidéo, est un jeu d’enfant. Mais l’usurpation d’identité ne s’arrête pas là. La page hébergeant l’application utilise le nom d’Anouchka Delon, la fille de l’acteur.
« La mort d’Alain Delon est l’occasion rêvée pour ces groupes d’arnaqueurs, ils connaissent sa vie, ils savent quoi dire pour rendre la vidéo plausible, notamment en utilisant sa fille… C’est suffisamment crédible pour y croire, la personne qui tombe sur cette annonce est rassurée a déclaré Victor Baallais, spécialiste en IA (Intelligence Artificielle) dans les colonnes de parisien.