OpenAI bannit ceux qui cherchent à comprendre la fraise
OpenAI a récemment émis un avertissement : les utilisateurs de son dernier modèle d’intelligence artificielle (IA), « Strawberry », devraient éviter de fouiller dans son fonctionnement interne. Ceux qui essaieraient de comprendre les mécanismes qui sous-tendent son raisonnement risqueraient d’être bannis. Des informations à ce sujet circulent sur les réseaux sociaux.
Le modèle Strawberry, également connu sous le nom de o1-preview, est une avancée récente d’OpenAI. Il se distingue par son capacité à fournir un raisonnement détaillé qui permet aux utilisateurs de comprendre chaque étape menant à une conclusion. Cette fonctionnalité, décrite comme une « Nouveau paradigme « , a considérablement renforcé sa popularité. Cependant, OpenAI garde ce processus confidentiel et invoque des raisons de sécurité et de concurrence pour cette décision.
L’entreprise a commencé à envoyer des e-mails d’avertissement et plusieurs utilisateurs signalent avoir reçu messages signalant des violationsCes avertissements visent particulièrement ceux qui tentent de mieux comprendre le fonctionnement du modèle Strawberry. OpenAI menace de suspendre l’accès au GPT-4o si un utilisateur cherche à obtenir ces informations.
Selon certains utilisateurs, l’utilisation du terme « trace de raisonnement » déclenche ces alertes. D’autres prétendent que le simple fait de mentionner « raisonnement » suffit à attirer l’attention. OpenAI a mis en place des systèmes pour empêcher le raisonnement du modèle d’être trop accessible. Malgré tout, une partie du processus reste visible, mais filtré par un autre modèle d’IA.
Contrôle strict des processus
Dans un article de blog, OpenAI a expliqué son choix. L’entreprise craint que le modèle génère des réponses contraires à ses politiques de sécuritéEn réfléchissant à voix haute, Strawberry peut produire des idées inappropriées.
Pour éviter ces situations, OpenAI choisit de cacher certains aspects du raisonnement. Cette décision lui permet également de préserver son avantage concurrentiel. En préservant un certain degré de confidentialité autour de ses technologies, l’entreprise empêche ses concurrents de s’inspirer de son modèle.
Un pas en arrière en matière de transparence ?
Pour de nombreux experts en IA, cette décision marque un pas en arrière. Simon Willison, chercheur en intelligence artificiellea critiqué cette approche. Dans un billet de blog, il a exprimé sa déception. Pour lui, la transparence dans le fonctionnement de l’IA est cruciale. Si un développeur ne peut pas comprendre comment une IA parvient à ses réponses, cela complique l’interprétation des résultats.
Cette décision complique également le travail des red-teamers. Ces programmeurs testent l’IA pour pour détecter les vulnérabilités et améliorer la sécuritéOpenAI centralise ainsi davantage le contrôle de son modèle, au lieu de le rendre plus ouvert.
Cette attitude d’OpenAI pourrait influencer le développement futur de l’intelligence artificielle. Alors qu’elle prônait autrefois une IA ouverte et accessible, l’entreprise adopte désormais un modèle plus strictement contrôléCe changement pourrait ralentir les initiatives des autres acteurs et réduire les possibilités d’améliorations potentielles.
En fin de compte, la décision d’OpenAI, notamment concernant des modèles comme Strawberry, divise la communautéCertains estiment que ce contrôle accroît la sécurité. D’autres craignent que cette opacité ne freine l’évolution des modèles d’intelligence artificielle. Le débat autour de la transparence de l’IA ne fait que commencer.
- Partager l’article :
Notre blog est alimenté par les lecteurs. Lorsque vous effectuez un achat via des liens sur notre site, nous pouvons percevoir une commission d’affiliation.