« Honnêtement, c’est de plus en plus difficile de savoir si une fille est jolie ou si c’est une intelligence artificielle. » Ce constat est fait par Romain, 33 ans, célibataire. Adepte des applications de rencontre en tout genre, il a connu plusieurs déceptions : « Parfois, je me présentais à un rendez-vous, et la fille ne ressemblait pas du tout à sa photo de profil, qui avait été fortement retouchée. Parfois, c’est au cours de la conversation que je me rendais compte que je parlais à un arnaqueur qui voulait m’extorquer de l’argent », regrette-t-il.
Alors bien sûr, la trentenaire s’inquiète de l’influence des nouvelles technologies. « Repérer une photo créée de toutes pièces par l’intelligence artificielle, ça va toujours. Mais repérer les retouches faites grâce à l’IA de Facetune ou Photoshop, c’est beaucoup plus subtil, et j’ai toujours peur que les femmes en abusent. »
L’IA au service des rencontres
Romain n’est pas le seul à se méfier des photos générées ou retouchées par l’IA utilisées sur les réseaux sociaux. L’IA est un outil populaire pour les catfishers, ou ceux qui se font passer pour quelqu’un qu’ils ne sont pas. Selon une enquête de Bumble, 71 % des répondants de la génération Z et de la génération Y (âgés de 18 à 34 ans) ont déclaré qu’il devrait y avoir des limites à l’utilisation de photos de profil et de bios générées par l’IA sur les applications de rencontre. De plus, 71 % des répondants considéreraient qu’interagir avec des personnes qui utilisent des photos d’eux-mêmes générées par l’IA relève du catfishing.
Certaines applications, comme Tinder, ont décidé de se servir de ces avancées technologiques pour améliorer l’expérience utilisateur. La plateforme vient de lancer un nouvel outil à l’international, le « Photo Selector », qui permet à une IA d’aider les utilisateurs à choisir les photos les plus flatteuses de leur galerie photo.
« Nous sommes fiers d’être la première application de rencontre à proposer un outil d’IA qui facilite grandement la création de profils, ce qui est l’une des étapes les plus difficiles des rencontres. En tant que leader du secteur, nous nous efforçons de définir les meilleurs cas d’utilisation du secteur pour les intégrations d’IA qui ont du sens pour les consommateurs », a déclaré Faye Iosotaluno, PDG de Tinder. « Comme le montre notre fonctionnalité de sélection de photos, nous développons l’IA pour vous aider à prendre des décisions, et non pour les prendre à votre place. Notre engagement envers nos utilisateurs est clair, et il est également vrai de notre vision de l’IA : chez Tinder, nous développons des technologies innovantes pour créer un espace plus sûr où les gens peuvent nouer des relations authentiques. »
Mais attention : comme le rappelle Benjamin Puygrenier, porte-parole de Tinder France, l’objectif de cet outil n’est pas de mettre en avant des photos retouchées par l’IA, bien au contraire. « Photo Selector fonctionne à partir de la photo de profil de l’utilisateur ou du selfie qu’il fournit. Si les photos ne semblent pas correspondre au visage de l’utilisateur, l’outil ne les recommandera pas. » Et de préciser : « Du côté de Tinder, nous explorons continuellement les avancées de l’IA pour améliorer l’expérience utilisateur et la sécurité. Notre vision est que l’intégration de nouvelles technologies peut aider à créer un environnement sûr, amusant et inclusif, ce qui a toujours été l’une des priorités de Tinder. »
Attention de la part des applications
De son côté, Bumble a décidé de prendre le contre-pied de l’intelligence artificielle. Le 22 juillet 2024, l’application a annoncé la mise en place d’une nouvelle fonctionnalité qui permet à ses membres de signaler les profils qu’ils rencontrent sur l’application lorsqu’ils utilisent des photos et des vidéos générées par l’intelligence artificielle. Une mesure complémentaire au Deception Detector mis en place en début d’année : un outil utilisant l’intelligence artificielle pour identifier les spams, les arnaques et les faux profils.
Contacté par nos soins, un porte-parole de l’application a déclaré que « Bumble souhaite se concentrer sur une utilisation responsable de l’IA et s’intéresse donc aux nouveaux défis posés par l’utilisation malhonnête de cette technologie ». Il a ajouté : « La sécurité est une priorité absolue chez Bumble. Nous utilisons une combinaison de modérateurs humains et de systèmes automatisés pour surveiller et examiner les comptes et les interactions Bumble afin de détecter tout contenu susceptible de violer nos Règles de la communauté, nos Conditions d’utilisation ou d’être nuisible. »
Le porte-parole précise que ce ne sont pas seulement les photos générées par l’IA qui seront signalées. Les photos modifiées le seront également : « Le contenu fortement créé ou modifié avec l’intention claire de tromper n’est pas autorisé sur Bumble. »
Un avis partagé par l’application de rencontres Hinge, qui précise de son côté : « Chez Hinge, nous pensons que l’authenticité est essentielle pour établir des liens durables et significatifs. L’IA ne doit pas se faire au détriment de la sécurité des utilisateurs ou de leur capacité à distinguer les faits de la fiction. » Chaque profil sur la plateforme doit ainsi contenir « au moins une photo de votre visage et/ou de votre visage et de votre corps sur votre profil qui n’est pas générée par l’IA ou qui n’est pas fortement modifiée. Cela permet de garantir que nos utilisateurs savent à quoi s’attendre lorsqu’ils se rencontrent. » De même, la rédaction de biographies par l’IA est interdite.
Lire aussi