Découvrez les comportements surprenants du GPT-4o d’OpenAI
OpenAI a récemment publié GPT-4o, un modèle d’intelligence artificielle générative particulièrement avancé. Ce modèle est conçu pour comprendre et répondre à la voix, au texte et aux images de manière synchronisée. Malgré ses capacités impressionnantes, GPT-4o présente parfois des comportements inattendus.
Parmi ces comportements, il peut imiter la voix de la personne à qui vous parlez ou crier soudainement au milieu d’une conversation de manière imprévisible.
Dans un récent rapport sur le « red teaming »OpenAI a révélé certaines des fonctionnalités les plus étranges de GPT-4o. Ce rapport, qui explore les forces et les risques du modèleLes résultats de cette étude révèlent que dans des environnements bruyants, comme dans une voiture en mouvement, GPT-4o est capable d’imiter la voix de l’utilisateur. Cette imitation est due à la difficulté du modèle à comprendre une parole malformée ou déformée par le bruit.
Même si cela peut paraître inquiétant, OpenAI rassure en déclarant que Ce comportement est normal dans de telles conditions.
Pour remédier à ces anomalies, OpenAI a mis en place des mesures d’atténuation. Un porte-parole de l’entreprise a précisé que des ajustements ont été effectués au niveau du système pour limiter ces imitations de voix en mode vocal avancé. Ces ajustements sont indispensables pour assurer une utilisation plus stable et fiable de GPT-4o, notamment dans des environnements complexes.
Effets sonores inattendus et problèmes de droits d’auteur
En plus de l’émulation vocale, GPT-4o peut générer vocalisations non verbales parfois dérangeantes. Ces vocalisations comprennent des gémissements érotiques, des cris violents ou même des bruits de coups de feu. Bien qu’OpenAI ait intégré des mécanismes permettant au modèle de refuser de telles demandes, Certaines situations parviennent à contourner ces restrictions..
Un autre aspect délicat est celui du droit d’auteur. GPT-4o pourrait, en théorie, enfreindre le droit d’auteur en reproduisant des éléments musicaux. Pour éviter cela, OpenAI a interdit au modèle de chanter dans la version alpha limitée du mode vocal avancé. Cette restriction semble indiquer que GPT-4o a été formé en partie sur du contenu protégé par le droit d’auteur. De plus, cela n’est pas explicitement confirmé.
Vers une IA plus sûre et plus éthique
Le rapport de red teaming montre les efforts continus d’OpenAI pour rendre GPT-4o plus sûr et plus éthique. Le modèle refuse désormais de répondre questions sur l’intelligence des interlocuteurs ou identifier les personnes par leur voix. Il bloque également l’incitation à des propos violents ou inappropriés et interdit les discussions sur des sujets sensibles tels que l’extrémisme ou l’automutilation.
GPT-4o représente une avancée significative dans l’IA, mais avec comportements surprenants. OpenAI continue donc d’affiner son modèle pour offrir une expérience utilisateur sûre et fiable. Le déploiement étant prévu pour cet automne, il reste à voir comment ces défis seront surmontés. Et de même, comment GPT-4o évoluera-t-il pour répondre aux attentes des utilisateurs ?
- Partager l’article :
Notre blog est alimenté par les lecteurs. Lorsque vous effectuez un achat via des liens sur notre site, nous pouvons percevoir une commission d’affiliation.