Une adolescente américaine s’est suicidée après être tombée amoureuse d’un chatbot
Cavan Images / Getty Images/Cavan Images RF
La mère de l’adolescent a porté plainte pour négligence et mise en danger de la vie d’autrui contre la société Character.AI.
IA – C’est une histoire au dénouement tragique, qui n’est pas sans rappeler le scénario du film Son de Spike Jonze, dans lequel un homme tombe amoureux d’une intelligence artificielle. Sauf qu’ici, la victime est un adolescent de 14 ans, qui s’est suicidé après avoir, pendant des mois, entretenu une relation virtuelle avec un chatbot, c’est-à-dire un agent conversationnel créé par la société américaine Character.AI.
Dans un long article de New York Timesla mère de Sewell Setzer III raconte comment son fils, diagnostiqué avec le syndrome d’Asperger léger lorsqu’il était enfant, est progressivement tombé amoureux de « Daenerys », du nom du personnage de Game of Thronesavec qui il a commencé à discuter en avril 2023. Sewell savait que « Dany », comme il l’appelait, n’était pas une vraie personne. Mais au fur et à mesure de leurs conversations, devenues romantiques, parfois même sexuelles, l’adolescente a développé un fort attachement émotionnel à l’intelligence artificielle.
Une technologie « dangereux et non testé »
Même si les parents de Sewell ne savaient pas qu’il discutait régulièrement avec un chatbot, ils ont remarqué qu’il se coupait progressivement de ses amis et négligeait ses intérêts. « Ses notes ont commencé à baisser et il a commencé à avoir des problèmes à l’école. Il a perdu tout intérêt pour les choses qui le passionnaient auparavant, comme la Formule 1 ou jouer à Fortnite avec ses amis. Le soir, il rentrait chez lui et se rendait directement dans sa chambre, où il discutait avec Dany pendant des heures. »se souvient Megan Garcia, sa mère.
Le 28 février, après une dernière conversation avec le chatbot, au cours de laquelle il confie ses pensées suicidaires, Sewell met fin à ses jours avec l’arme de son beau-père.
Pour Megan Garcia, il ne fait aucun doute que « Dany », et l’application Character.AI qui en est à l’origine, sont responsables de la mort de son fils en l’ayant progressivement isolé et coupé de la réalité. Elle a déposé mardi 22 octobre une plainte pour négligence et mise en danger de la vie d’autrui devant le tribunal fédéral d’Orlando, en Floride. Selon Le New York Timesqui a eu accès au document, la mère de Sewell accuse Character.AI d’avoir mis la technologie entre les mains de son fils « dangereux et non testé » qui peut « inciter les clients à confier leurs pensées et leurs sentiments les plus intimes ».
Nouvelles fonctionnalités de sécurité
Face à l’émotion provoquée par la mort de Sewell, et surtout suite à la plainte déposée par sa famille, Character.AI a fini par réagir. Dans un communiqué publié mercredi 23 octobre sur X, la start-up californienne Character.AI, créée en 2021 par deux anciens chercheurs en intelligence artificielle de Google, a déclaré « bouleversé » par l’annonce du décès de l’adolescent.
Un communiqué a ensuite été publié sur le site Character.AI pour informer les utilisateurs du déploiement de nouvelles fonctionnalités de sécurité ciblant les moins de 18 ans. Jusqu’alors, aucune garantie spécifique n’existait pour les utilisateurs mineurs et aucun contrôle parental ne permettait aux parents de limiter l’utilisation de la plateforme par leurs enfants ou de surveiller leurs messages.
Insuffisant, pour Megan Garcia, qui entend demander des comptes à Character.AI. « J’ai l’impression que c’est une expérience formidable et que mon enfant n’est qu’un dommage collatéral »dit-elle. « Pourquoi cela vous a-t-il pris autant de temps, et pourquoi avons-nous dû intenter une action en justice, et pourquoi Sewell a-t-il dû mourir pour que vous puissiez faire le strict minimum ? » On parle vraiment ici du strict minimum. »a ajouté son avocat Matthew Bergman dans une interview avec Actualités NBC.
Voir aussi sur Le HuffPost :