«Bonjour mon fils, c'est maman»… Grâce à l'IA, des escrocs clonent la voix de sa mère pour lui demander de l'argent
Les nouvelles les plus importantes de la journée

«Bonjour mon fils, c’est maman»… Grâce à l’IA, des escrocs clonent la voix de sa mère pour lui demander de l’argent

«Bonjour mon fils, c’est maman»… Grâce à l’IA, des escrocs clonent la voix de sa mère pour lui demander de l’argent

Attention à cette nouvelle arnaque à la méthode bien ficelée. Cette arnaque utilise des techniques d’intelligence artificielle pour cloner les voix des proches afin de soutirer de l’argent aux victimes. Un homme d’une cinquantaine d’années, qui a failli en être victime, a témoigné Charente libre. Le 22 septembre, il a reçu un appel, semble-t-il, de sa mère. La voix semblait identique : « J’entends ‘bonjour mon fils, c’est maman’ », raconte-t-il. La mère présumée a expliqué qu’elle avait perdu ses affaires à la gare et lui a demandé son numéro de carte bancaire. Cependant, des retards dans les réponses et des intonations étranges ont éveillé ses soupçons. L’homme a finalement raccroché.

Le directeur de la plateforme cybermalveillance.gouv.fr, Jean-Jacques Latour, interrogé par nos confrères, a détaillé le déroulement de cette arnaque. « Les cybercriminels collecteront des échantillons de voix auprès des proches des personnes qu’ils souhaitent usurper. Ils les rechercheront sur les réseaux sociaux ou dans des vidéos en ligne. Ils sont alors capables, à l’aide d’un petit logiciel d’intelligence artificielle, d’enregistrer une déclaration, n’importe qui, avec la voix de la personne. » Et d’expliquer à TF1 : « Il va falloir dicter au logiciel ce qu’on veut dire pour qu’il le retranscrive, donc il y aura un temps de latence. »

Premier cas en France

C’est la première fois que ce type d’attaque est signalé en France. Or, de nombreux cas ont déjà été enregistrés aux Etats-Unis, assure l’expert. Par exemple, une mère américaine a cru que sa fille avait été kidnappée après avoir entendu sa voix demander de l’aide au téléphone. En réalité, sa voix avait été clonée et utilisée pour exiger une rançon. Des stars françaises ont également été la cible de ces arnaques comme Alain Delon et Alain Chabat.

Les experts recommandent, en cas de doute, de poser une question personnelle à laquelle seul le proche peut répondre ou de rappeler directement la personne sur son numéro habituel. Une étude de la Starling Bank montre qu’en Grande-Bretagne 28% des personnes interrogées ont déjà été victimes de ce type d’arnaque, mais 46% ignorent encore son existence.

Quitter la version mobile