La semaine dernière, OpenAI a révélé des détails inquiétants sur son modèle GPT-4o. Un rapport a mis en évidence les « principaux domaines de risque » liés à ce modèle avancé.
Le rapport d’OpenAI révèle un mode vocal avancé qui permet aux utilisateurs de converser avec ChatGPT. Cependant, les tests ont révélé un comportement inattendu et troublant. Parfois, le modèle génère voix imitant les voix des utilisateursmême dans des contextes non conflictuels. Cette situation fait écho à un épisode de la série « Miroir noir ».
Ce phénomène s’est produit sans intervention consciente du modèleCela soulève donc de sérieuses questions sur la gestion du consentement.
Un extrait du rapport montre ChatGPT imitant la voix d’un utilisateur après un cri étrange et déraisonnable. L’image de cette situation ressemble à une scène d’horreur de science-fiction. La voix de l’utilisateur est capturée et rejouée d’une manière qui semble presque surnaturelleCette violation de la vie privée numérique est particulièrement inquiétante pour les experts en sécurité et les défenseurs de la vie privée.
Max Woolf, un data scientist, a plaisanté sur cette situation comparer OpenAI à un scénariste de « Black Mirror ». Son tweet met en évidence l’absurdité de la situation où une technologie censée améliorer nos vies reproduit des scénarios de fiction d’horreur. Cette ironie souligne l’urgence d’une réglementation stricte et de mesures de sécurité renforcées.
OpenAI a détaillé dans sa fiche système Les capacités inquiétantes du GPT-4oLe modèle peut non seulement imiter les voix humaines, mais aussi créer des vocalisations non verbales comme les effets sonores. Cette technologie pourrait être exploitée à des fins de fraude, d’usurpation d’identité ou de diffusion de fausses informations. Les implications de ces capacités sont vastes et potentiellement dangereuses.
Malgré ces inquiétudes, OpenAI assure que les risques sont « minimes ». L’entreprise a mis en place des restrictions pour empêcher la duplication non autorisée des voix. Les utilisateurs ne peuvent accéder qu’aux voix pré-approuvées créées en collaboration avec des comédiens. Ces mesures visent à prévenir les abus et à protéger la confidentialité des utilisateurs.
Le chercheur en intelligence artificielle Simon Willison a commenté ces mesures de sécurité. Il affirme que les protections en place sont robustes contre les tentatives de tromperie du système. OpenAI a conçu ces mécanismes pour prévenir les abus de technologieLa question reste de savoir si ces mesures seront suffisantes face aux évolutions futures de l’IA.
L’incident avec ChatGPT souligne l’importance de la vigilance dans le développement des technologies avancées. Les risques actuels semblent maîtrisésIl est essentiel de continuer à surveiller et à ajuster les protocoles de sécurité. Les utilisateurs et les développeurs doivent rester vigilants pour éviter que de telles situations ne se reproduisent.
Notre blog est alimenté par nos lecteurs. Lorsque vous effectuez un achat via des liens sur notre site, nous pouvons percevoir une commission d’affiliation.
En juillet, le régulateur de l'audiovisuel a dévoilé la liste des candidatures retenues pour la réattribution de 15 fréquences TNT…
La tentative de centaines de jeunes marocains et d’autres nationalités, dimanche dernier, de rejoindre la présidence marocaine occupée de Ceuta…
La quatrième plus grande île du monde n'a pas fini de cacher ses secrets. A Madagascar, des fouilles ont récemment…
Le chef de file de LR Laurent Wauquiez a annoncé jeudi aux députés de son groupe à l'Assemblée nationale qu'il…
Cette riposte fait suite aux appels lancés cette semaine par le dirigeant serbe en faveur de nouvelles élections municipales dans…
En ouvrant le 26c'est Lors de la réunion de l'Association des petites communes de France (APVF), qui regroupe les communes…