Les utilisateurs ont de plus en plus d’échanges intimes avec ChatGPT et cela inquiète la société mère

Inquiétant ! Les chercheurs d’OpenAI estiment que GPT-4o est capable d’influencer les normes sociales des individus les plus assidus aux discussions avec le chatbot. Au point d’en faire des idiots ?

Dans le film SonJoaquin PhénixPhénix Il incarne un écrivain de Los Angeles rongé par la solitude. Il fait l’acquisition de Samantha, une entité artificielle dotée de sensibilité qui l’accompagne au quotidien. Il finit par tomber amoureux d’elle. Ce n’est qu’un film, mais la réalité n’est pas si éloignée de ce scénario qui se termine tragiquement.

Depuis l’arrivée des premiers chatbots, au travers des discussions, certains utilisateurs ont également développé des sentiments pour leur interlocuteur virtuel. Ce phénomène prend aujourd’hui de l’ampleur à mesure que l’intelligence artificielle (IA) s’améliore. C’est notamment le cas de la dernière version du Chatbot OpenAIChatbot OpenAI.

Cela aurait une fâcheuse tendance à conduire certains utilisateurs à anthropomorphiser l’IA. Ils lui donneraient de plus en plus la crédibilité que pourrait avoir un interlocuteur humain. Selon les chercheurs en sécurité d’OpenAI, à travers les interactions avec ces chatbots de plus en plus réalistes, cette confiance accrue pourrait inciter les utilisateurs à considérer l’IA comme une « intelligence artificielle ». hallucinationshallucinations de l’IA pour des faits réels. Rappelons que ces hallucinations sont les réponses qu’une IA invente parfois lorsqu’elle ne dispose pas des données correspondant à la question posée.

Les chercheurs pensent même que parler trop avec ces chatbots pourrait influencer les « normes sociales » des individus les plus isolés et générer une dépendance émotionnelle à l’IA. L’effet serait renforcé avec des chatbots capables de communiquer par audio vocal de manière fluide avec des réponses pratiquement dépourvues de latence. C’est notamment le cas de GPT-4o.

Quand l’IA nous fait perdre notre discernement

Dans ces situations, les chercheurs en sécurité ont observé que les testeurs humains utilisaient un langage qui suggère des relations fortes et intimes avec l’IA. Converser vocalement avec l’IA a également un autre effet. L’IA est programmée pour être respectueuse envers son utilisateur, de sorte que l’humain aura toujours l’autorité finale sur la conversation. Avec des interactions comme celles-ci, un utilisateur peut avoir du mal à respecter les signaux sociaux généraux d’une conversation avec un humain. Il peut alors interrompre la conversation, perdre patience ou devenir blessant.

Pire encore, les futures versions de ces modèles de langage pourraient avoir pour effet sournois de réduire le besoin des gens de parler à d’autres humains et, à terme, de développer des relations saines. Mais tout n’est pas si noir, car, à l’inverse, des personnes anxieuses peuvent gagner en confiance grâce à des conversations avec une IA. Cet entraînement naturel leur permettrait d’améliorer leurs interactions dans le monde réel.

La sécurité de l’IA balayée sous le tapis

Alors que les développements de nouveaux produits d’OpenAI sont en cours, ses chercheurs en sécurité interne n’ont pas le même calendrier. Ils découvrent généralement les dangers de l’IA une fois qu’elle est mise à disposition du public. Par exemple, dans cette même étude, les chercheurs de l’entreprise ont découvert que le mode vocal avancé du modèle d’IA pouvait également imiter spontanément la voix de ses utilisateurs. En capturant l’environnement sonore, ChatGPT peut soudainement décider que la voix de l’utilisateur est pertinente pour la discussion en cours et cloner instantanément cette voix lors de la réponse.

Ce risque resterait minime selon les chercheurs, mais il pourrait inciter des personnes malveillantes à utiliser des techniques de manipulation du chatbot pour le déclencher. C’est pourquoi ce constat de duplication involontaire de la voix a conduit l’entreprise à verrouiller la génération de voix aux seules synthèses créées par OpenAI. Or, globalement, le travail des chercheurs en sécurité de la firme se heurte paradoxalement à sa volonté politique de sortir le plus rapidement possible de nouveaux produits tout en minimisant les problèmes éthiques et de sécurité qu’ils pourraient soulever. Comme toujours : il faut être le premier ! … quoi qu’il en coûte.

Jewel Beaujolie

I am a fashion designer in the past and I currently write in the fields of fashion, cosmetics, body care and women in general. I am interested in family matters and everything related to maternal, child and family health.

Recent Posts

Formation du gouvernement : les maires s’impatientent

En ouvrant le 26c'est Lors de la réunion de l'Association des petites communes de France (APVF), qui regroupe les communes…

2 minutes ago

En Géorgie, Kesaria Abramidze, influenceuse et actrice trans, tuée après le vote d’une loi LGBTphobe

Instagram de Kesaria Abramidze L'actrice et influenceuse Kesaria Abramidze, 37 ans, a été tuée à son domicile en Géorgie. Les…

3 minutes ago

Une femme piégée par un python de 4 mètres est sauvée après deux heures d’épreuve

C'est le cauchemar de nombreuses personnes. En Thaïlande, une femme a vécu un véritable calvaire mardi 17 septembre, littéralement emprisonnée…

4 minutes ago

La liste de l’ASSE pour affronter l’OGC Nice, sans Boakye

Olivier Dall'Oglio vient d'annoncer le groupe convoqué pour se déplacer à Nice, vendredi à 20h45, pour le match d'ouverture de…

5 minutes ago

Matthieu Lartot en deuil, il annonce la disparition d’une femme qui comptait beaucoup pour lui

Ce jeudi 19 septembre, Matthieu Lartot a partagé une mauvaise nouvelle sur les réseaux sociaux. Le journaliste sportif a annoncé…

6 minutes ago

on a vu le one man show de Xavier Niel à l’Olympia

L'entrepreneur milliardaire Xavier Niel était sur la mythique scène de l'Olympia à Paris mercredi soir pour une date unique et…

7 minutes ago