OpenAI craint que ses utilisateurs développent des relations émotionnelles avec son IA
Les nouvelles les plus importantes de la journée

OpenAI craint que ses utilisateurs développent des relations émotionnelles avec son IA

OpenAI craint que ses utilisateurs développent des relations émotionnelles avec son IA

La société pionnière de l’intelligence artificielle générative (IA) ChatGPT a exprimé son inquiétude quant au fait qu’une voix réaliste dans son logiciel pourrait pousser les utilisateurs à créer des liens avec elle, au détriment de l’interaction humaine.

Les ingénieurs d’OpenAI se sentent-ils dépassés par leur création ? Dans un article, l’entreprise qui a lancé ChatGPT, une intelligence artificielle générative, s’inquiète du fait qu’une voix réaliste dans son logiciel pourrait pousser les utilisateurs à créer des relations avec elle, au détriment des interactions humaines.« L’anthropomorphisme est l’acte d’attribuer des attitudes ou des caractéristiques humaines à quelque chose qui n’est pas humain, comme un modèle d’IA. »a indiqué la société dans un rapport publié jeudi. « Le risque peut être accru par les fonctionnalités audio du GPT-4, qui facilitent les interactions de type humain. »souligne le rapport.

Le document a été publié la veille du lancement de la nouvelle version de ChatGPT, GPT-4o, qui inclut la capacité du logiciel à répondre vocalement et à permettre l’équivalent d’une conversation avec. Mais avoir le même type de conversation avec une IA qu’avec un humain pourrait créer un « confiance mal placée » dans le logiciel, que la voix ajoutée à ce dernier pourrait renforcer. OpenAI souligne notamment avoir pu observer chez les testeurs de la nouvelle version des échanges avec l’IA qui semblaient montrer la création d’un lien émotionnel, comme l’expression de regret que ce soit leur dernier jour ensemble.

« Bien que ces cas puissent paraître sans conséquence, ils soulignent la nécessité de poursuivre les recherches sur la manière dont ces effets pourraient se manifester à plus long terme. »Le rapport conclut. Entrer dans une forme de relation de socialisation avec l’IA pourrait également encourager les utilisateurs à réduire leur désir d’avoir des relations avec les humains, anticipe OpenAI. « Des interactions prolongées avec le modèle pourraient avoir un effet sur les normes sociales. Par exemple, nos modèles sont toujours respectueux, ce qui permet aux utilisateurs de les interrompre à tout moment, un comportement qui, bien que normal pour une IA, pourrait être en dehors des normes des interactions sociales. »les détails du rapport.

Les risques liés à la dépendance à la technologie

La capacité de l’IA à mémoriser les détails des conversations et à exécuter les tâches qui lui sont assignées pourrait également conduire les utilisateurs à trop s’appuyer sur cette technologie. « Ces nouvelles inquiétudes partagées par OpenAI quant au risque de dépendance potentielle de ChatGPT à la voix soulignent à quel point la question qui émerge est la suivante : devons-nous prendre le temps de chercher à comprendre comment la technologie va affecter les interactions et les relations humaines ? »a déclaré Alon Yamin, cofondateur et PDG de Copyleaks, une plateforme de détection de plagiat basée sur l’IA.

« L’IA est une technologie complémentaire, destinée à nous aider à rationaliser notre travail et notre vie quotidienne ; elle ne doit pas se substituer aux véritables relations humaines. »OpenAI a ajouté qu’elle continuait d’étudier comment la fonction vocale de son IA pourrait amener les utilisateurs à s’y attacher émotionnellement. Les testeurs ont également réussi à lui faire répéter de fausses informations ou à créer des théories du complot, ce qui ajoute aux inquiétudes concernant les risques potentiels du modèle d’IA.

La fonctionnalité vocale de Chat-GPT a déjà suscité de nombreuses réactions négatives, obligeant OpenAI à s’excuser auprès de l’actrice Scarlett Johansson en juin pour avoir utilisé une voix qui ressemble beaucoup à la sienne, déclenchant une controverse sur le risque de copie vocale grâce à cette technologie. Bien que l’entreprise ait nié avoir utilisé la voix de Johansson, le fait que son patron, Sam Altman, ait promu la fonctionnalité vocale sur les réseaux sociaux en utilisant un seul mot, « Son »en référence au film dans lequel l’actrice joue une IA, ne l’a pas aidée à convaincre les observateurs.

Le film, sorti en 2013, raconte l’histoire d’un homme, joué par l’acteur Joaquin Phoenix, qui tombe amoureux de son IA personnelle, « Samantha »pour lequel Scarlett Johansson a prêté sa voix.

Quitter la version mobile