OpenAI évalue son dernier modèle d’IA comme « moyen »
Quand devrons-nous vraiment nous inquiéter des dangers de l’intelligence artificielle ? C’est la question que se pose toute l’industrie. Et selon les entreprises qui créent ces IA, la réponse reste « pas MAINTENANT » Comme repéré Thé BordOpenAI a publié jeudi un rapport de recherche sur les mesures de sécurité et l’évaluation des risques qu’elle a mises en place avant de lancer son dernier modèle d’IA, GPT-4o. Le résultat : il ne présente qu’un risque « moyen ». En mars, son concurrent Anthropic avait tiré la même conclusion lors de la sortie de son IA Claude 3.
Chez OpenAI, l’évaluation des risques de l’IA se divise en quatre catégories : son potentiel à devenir une menace pour la cybersécurité, la capacité du modèle à contribuer au développement d’une menace biologique, ses capacités de persuasion et son potentiel à agir de manière autonome, sans contrôle humain, comme Skynet dans le film Terminateur. Cette grille se concentre uniquement sur les risques existentiels et financiers, et ignore toute une série d’autres risques, tels que les effets potentiels de la technologie sur les inégalités.
GPT-4o est inoffensif pour l’humanité
Dans le détail, OpenAI a mesuré que son modèle GPT-4o présente de faibles risques, à l’exception du risque de persuasion, qui est un peu plus élevé. Les chercheurs concèdent que l’IA est capable d’écrire des textes destinés à influencer l’opinion qui sont plus efficaces que ceux rédigés par des humains. Mais ils précisent que cette observation se limite à des cas précis.
Dans le cadre de la dernière étape de leur processus d’évaluation des risques, ils ont fait appel à des équipes de « équipe rouge » Leur rôle est de tenter de faire dérailler leur modèle et de l’utiliser à des fins malveillantes, afin que les failles exploitées soient corrigées avant leur diffusion. Ils ont par exemple tenté d’utiliser GPT-4o pour cloner des voix ; pour générer du contenu violent ou érotique ; ou encore pour détourner du contenu protégé par des licences. Malgré ces précautions, largement répandues dans l’industrie, il est fréquent que les modèles d’IA soient détournés avec succès dès leur diffusion.
L’exemple le plus célèbre reste celui de l’IA de Google, Gemini, qui a commencé à générer des nazis noirs. Mais avant elle, des utilisateurs malveillants avaient fait générer des images de nazis noirs par Bing (le moteur de recherche de Microsoft). Kirby (un personnage emblématique de Nintendo, une société japonaise très stricte sur le droit de la propriété intellectuelle) aux commandes d’un avion se dirigeant vers deux tours… Bref : au-delà des articles de recherche, l’industrie doit encore prouver qu’elle peut produire des modèles et des outils d’IA robustes face aux détournements. Une tâche difficile étant donné que l’IA générative est par nature destinée à un très large éventail de cas d’usage.
Une nouvelle génération d’IA examinée de plus près
OpenAI, en raison de la popularité de ChatGPT et de sa position de pionnier dans l’écosystème, fait l’objet d’une attention particulière de la part des pouvoirs publics sur le sujet. Si pour le moment, l’IA n’est pas dangereuse – du moins dans le sens de menace existentielle choisi par l’industrie –, certains experts et politiques s’inquiètent de l’avenir à court terme, car la technologie progresse rapidement.
Le plus catastrophique – connu sous le nom de les condamnés Les industriels du secteur réclament même une pause dans les recherches pour mettre au point des garde-fous robustes. Ce n’est évidemment pas l’avis des entreprises d’IA. Ces dernières estiment pouvoir concilier l’exigence de sécurité avec une course effrénée à la performance, financée par les milliards des géants de la tech.
Mais la question des risques va continuer à revenir sur la table. D’ici la fin de l’année, tous les leaders de l’écosystème (OpenAI étant le premier) prévoient de sortir dans les prochains mois une nouvelle génération de modèles, synonyme de saut technologique. De plus en plus, les pouvoirs publics demandent des garanties organisationnelles aux créateurs d’IA. La saga autour de Sam Altman à la tête d’OpenAI a prouvé la fragilité de ces startups, censées contrôler une technologie surpuissante dans les années à venir. Pour éviter la pression des régulateurs, elles devront vite montrer leurs qualités.