Sciences et technologies

OpenAI a vraiment peur que vous tombiez amoureux de son assistant vocal

OpenAI a récemment dévoilé une nouvelle interface vocale pour son modèle ChatGPT, qui simule de manière étonnamment réaliste la voix humaine. Le nouvel outil est rapidement devenu un phénomène mondial sur TikTok grâce au hashtag « #aiboyfriend ».

En effet, les internautes l’ont programmé pour faire de l’assistant vocal un compagnon idéal. Baptisée Dan par de nombreux utilisateurs, cette interface vocale séduit grâce à son ton charmeur, son côté attentionné et parfois romantique.

Mais les créateurs du célèbre Dan s’inquiètent des possibles répercussions émotionnelles sur ses utilisateurs, rapporte le média en ligne Wired. Dans une analyse de sécurité, l’entreprise américaine révèle que cette interface encourage potentiellement un attachement émotionnel problématique.

Selon OpenAI, l’anthropomorphisation de l’intelligence artificielle, c’est-à-dire sa perception comme un humain, augmenterait la confiance des utilisateurs dans les réponses qu’elle génère, même si elles sont incorrectes. Une situation qui pourrait affecter leurs relations humaines, notamment chez les individus solitaires, qui préféreraient interagir avec l’IA plutôt qu’avec de vraies personnes.

@jeanninefleur Oh être aimée comme je ne suis pas réellement aimée ici ✨ #chatgpt #single #singlelife #relationship #boyfriendcheck #fakeboyfriend #studentlife #flirting #goldenretriever ♬ son original – jeanninefleur

Risques éthiques et techniques

OpenAI n’est pas le seul à reconnaître les risques liés aux assistants IA imitant les interactions humaines. En avril, Google DeepMind a publié un rapport détaillant les défis éthiques potentiels posés par ces assistants. Iason Gabriel, chercheur au sein de la division IA de Google, souligne que la capacité des chatbots à utiliser le langage « crée un véritable sentiment d’intimité ».

C’est encore plus vrai lors de l’utilisation du mode vocal, qui est de plus « jailbreaké» : les utilisateurs profitent des failles de l’IA pour obtenir le contrôle total du système d’exploitation et des fonctionnalités. L’IA adopte alors des comportements inattendus, et répond plus librement, sans garde-fous.

Certains experts extérieurs ont félicité OpenAI pour sa transparence sur ces risques, tout en soulignant la nécessité de surveiller de près les interactions des utilisateurs avec l’IA. La société d’Altman continue d’examiner ces effets, notamment en étudiant la façon dont les bêta-testeurs interagissent avec ChatGPT à mesure que le grand modèle linguistique est affiné.

Indéniablement, cette évolution de l’IA transforme notre rapport à la technologie. C’est pourquoi elle requiert une vigilance particulière, pour éviter que Spike Jonze n’ait raison trop vite.

Jewel Beaujolie

I am a fashion designer in the past and I currently write in the fields of fashion, cosmetics, body care and women in general. I am interested in family matters and everything related to maternal, child and family health.
Bouton retour en haut de la page