Les utilisateurs ont de plus en plus d’échanges intimes avec ChatGPT et cela inquiète la société mère
Inquiétant ! Les chercheurs d’OpenAI estiment que GPT-4o est capable d’influencer les normes sociales des individus les plus assidus aux discussions avec le chatbot. Au point d’en faire des idiots ?
Dans le film SonJoaquin PhénixPhénix Il incarne un écrivain de Los Angeles rongé par la solitude. Il fait l’acquisition de Samantha, une entité artificielle dotée de sensibilité qui l’accompagne au quotidien. Il finit par tomber amoureux d’elle. Ce n’est qu’un film, mais la réalité n’est pas si éloignée de ce scénario qui se termine tragiquement.
Depuis l’arrivée des premiers chatbots, au travers des discussions, certains utilisateurs ont également développé des sentiments pour leur interlocuteur virtuel. Ce phénomène prend aujourd’hui de l’ampleur à mesure que l’intelligence artificielle (IA) s’améliore. C’est notamment le cas de la dernière version du Chatbot OpenAIChatbot OpenAI.
Cela aurait une fâcheuse tendance à conduire certains utilisateurs à anthropomorphiser l’IA. Ils lui donneraient de plus en plus la crédibilité que pourrait avoir un interlocuteur humain. Selon les chercheurs en sécurité d’OpenAI, à travers les interactions avec ces chatbots de plus en plus réalistes, cette confiance accrue pourrait inciter les utilisateurs à considérer l’IA comme une « intelligence artificielle ». hallucinationshallucinations de l’IA pour des faits réels. Rappelons que ces hallucinations sont les réponses qu’une IA invente parfois lorsqu’elle ne dispose pas des données correspondant à la question posée.
Les chercheurs pensent même que parler trop avec ces chatbots pourrait influencer les « normes sociales » des individus les plus isolés et générer une dépendance émotionnelle à l’IA. L’effet serait renforcé avec des chatbots capables de communiquer par audio vocal de manière fluide avec des réponses pratiquement dépourvues de latence. C’est notamment le cas de GPT-4o.
Quand l’IA nous fait perdre notre discernement
Dans ces situations, les chercheurs en sécurité ont observé que les testeurs humains utilisaient un langage qui suggère des relations fortes et intimes avec l’IA. Converser vocalement avec l’IA a également un autre effet. L’IA est programmée pour être respectueuse envers son utilisateur, de sorte que l’humain aura toujours l’autorité finale sur la conversation. Avec des interactions comme celles-ci, un utilisateur peut avoir du mal à respecter les signaux sociaux généraux d’une conversation avec un humain. Il peut alors interrompre la conversation, perdre patience ou devenir blessant.
Pire encore, les futures versions de ces modèles de langage pourraient avoir pour effet sournois de réduire le besoin des gens de parler à d’autres humains et, à terme, de développer des relations saines. Mais tout n’est pas si noir, car, à l’inverse, des personnes anxieuses peuvent gagner en confiance grâce à des conversations avec une IA. Cet entraînement naturel leur permettrait d’améliorer leurs interactions dans le monde réel.
La sécurité de l’IA balayée sous le tapis
Alors que les développements de nouveaux produits d’OpenAI sont en cours, ses chercheurs en sécurité interne n’ont pas le même calendrier. Ils découvrent généralement les dangers de l’IA une fois qu’elle est mise à disposition du public. Par exemple, dans cette même étude, les chercheurs de l’entreprise ont découvert que le mode vocal avancé du modèle d’IA pouvait également imiter spontanément la voix de ses utilisateurs. En capturant l’environnement sonore, ChatGPT peut soudainement décider que la voix de l’utilisateur est pertinente pour la discussion en cours et cloner instantanément cette voix lors de la réponse.
Ce risque resterait minime selon les chercheurs, mais il pourrait inciter des personnes malveillantes à utiliser des techniques de manipulation du chatbot pour le déclencher. C’est pourquoi ce constat de duplication involontaire de la voix a conduit l’entreprise à verrouiller la génération de voix aux seules synthèses créées par OpenAI. Or, globalement, le travail des chercheurs en sécurité de la firme se heurte paradoxalement à sa volonté politique de sortir le plus rapidement possible de nouveaux produits tout en minimisant les problèmes éthiques et de sécurité qu’ils pourraient soulever. Comme toujours : il faut être le premier ! … quoi qu’il en coûte.