Sciences et technologies

Le côté obscur de ChatGPT révélé

La semaine dernière, OpenAI a révélé des détails inquiétants sur son modèle GPT-4o. Un rapport a mis en évidence les « principaux domaines de risque » liés à ce modèle avancé.

Le rapport d’OpenAI révèle un mode vocal avancé qui permet aux utilisateurs de converser avec ChatGPT. Cependant, les tests ont révélé un comportement inattendu et troublant. Parfois, le modèle génère voix imitant les voix des utilisateursmême dans des contextes non conflictuels. Cette situation fait écho à un épisode de la série « Miroir noir ».

Vidéo YouTubeVidéo YouTube

Ce phénomène s’est produit sans intervention consciente du modèleCela soulève donc de sérieuses questions sur la gestion du consentement.

L’horreur numérique en action

Un extrait du rapport montre ChatGPT imitant la voix d’un utilisateur après un cri étrange et déraisonnable. L’image de cette situation ressemble à une scène d’horreur de science-fiction. La voix de l’utilisateur est capturée et rejouée d’une manière qui semble presque surnaturelleCette violation de la vie privée numérique est particulièrement inquiétante pour les experts en sécurité et les défenseurs de la vie privée.

Max Woolf, un data scientist, a plaisanté sur cette situation comparer OpenAI à un scénariste de « Black Mirror ». Son tweet met en évidence l’absurdité de la situation où une technologie censée améliorer nos vies reproduit des scénarios de fiction d’horreur. Cette ironie souligne l’urgence d’une réglementation stricte et de mesures de sécurité renforcées.

OpenAI a détaillé dans sa fiche système Les capacités inquiétantes du GPT-4oLe modèle peut non seulement imiter les voix humaines, mais aussi créer des vocalisations non verbales comme les effets sonores. Cette technologie pourrait être exploitée à des fins de fraude, d’usurpation d’identité ou de diffusion de fausses informations. Les implications de ces capacités sont vastes et potentiellement dangereuses.

Clonage de voix : le côté obscur de ChatGPT révéléClonage de voix : le côté obscur de ChatGPT révélé

Précautions et mesures de sécurité

Malgré ces inquiétudes, OpenAI assure que les risques sont « minimes ». L’entreprise a mis en place des restrictions pour empêcher la duplication non autorisée des voix. Les utilisateurs ne peuvent accéder qu’aux voix pré-approuvées créées en collaboration avec des comédiens. Ces mesures visent à prévenir les abus et à protéger la confidentialité des utilisateurs.

Le chercheur en intelligence artificielle Simon Willison a commenté ces mesures de sécurité. Il affirme que les protections en place sont robustes contre les tentatives de tromperie du système. OpenAI a conçu ces mécanismes pour prévenir les abus de technologieLa question reste de savoir si ces mesures seront suffisantes face aux évolutions futures de l’IA.

Clonage de voix : le côté obscur de ChatGPT révéléClonage de voix : le côté obscur de ChatGPT révélé

L’incident avec ChatGPT souligne l’importance de la vigilance dans le développement des technologies avancées. Les risques actuels semblent maîtrisésIl est essentiel de continuer à surveiller et à ajuster les protocoles de sécurité. Les utilisateurs et les développeurs doivent rester vigilants pour éviter que de telles situations ne se reproduisent.


Notre blog est alimenté par nos lecteurs. Lorsque vous effectuez un achat via des liens sur notre site, nous pouvons percevoir une commission d’affiliation.

Jewel Beaujolie

I am a fashion designer in the past and I currently write in the fields of fashion, cosmetics, body care and women in general. I am interested in family matters and everything related to maternal, child and family health.
Bouton retour en haut de la page