Créer des superintelligences « sûres » : la nouvelle obsession des gourous de l’IA
Le mot « sécurité » est sur toutes les lèvres de tous les spécialistes de l’IA de la Silicon Valley. Au point que le concept est au centre des projets entrepreneuriaux et alimente la guerre des talents. Dernier exemple en date : fin juin, l’un des chercheurs les plus réputés du secteur de l’IA, Ilya Sutskever, a présenté son nouveau projet : Safe Superintelligence, une structure qui, comme son nom l’indique, a pour objectif de développer une superintelligence sûre, c’est-à-dire sans danger pour l’humanité.
Un mois plus tôt, le scientifique, cofondateur d’OpenAI, avait quitté la startup, où il dirigeait l’équipe « superalignment », chargée de développer des outils pour contrôler les IA du futur. Ilya Sutskever est l’une des figures les plus en vue d’une approche américaine (et donc dominante) des risques de l’IA, qui se concentre avant tout sur le risque existentiel.
En bref, il s’agit d’éviter les scénarios des films de science-fiction. Terminateuroù une intelligence artificielle surpuissante devient incontrôlable et finit par causer du tort à l’humanité. Bien qu’ils insistent sur la prise en compte de ces risques dans leur discours, les géants de l’IA refusent néanmoins, pour l’instant, toute autre approche que l’autorégulation…
Avec la superintelligence, de nouveaux dangers sont attendus
» Cette entreprise est particulière car son premier produit sera une superintelligence sûre et elle ne fera rien d’autre jusqu’à ce qu’elle atteigne cet objectif. Elle sera complètement isolée des pressions externes liées à la gestion d’un produit vaste et complexe et ne sera pas coincée dans une course à la performance. « , a promis l’ancien directeur scientifique d’OpenAI Bloomberg, Après sa présentation. De manière mitigée, le chercheur accuse ChatGPT de mener une course à la performance, d’augmenter la pression pour créer des produits, et ainsi d’avoir détourné son ancienne entreprise de sa mission initiale : créer une IA bénéfique à l’humanité.
En visant le développement d’une « superintelligence », Ilya Sutskever fait écho au concept d’AGI (intelligence artificielle généralendlr), la ligne d’arrivée de la course à l’IA. Très débattue et en partie floue, cette notion désigne généralement une IA capable d’égaler, voire de surpasser, le fonctionnement d’un humain. Les plus optimistes pensent y parvenir d’ici cinq ans, tandis que les plus pessimistes doutent de son existence même.
» L’AGI est un argument avancé par les entreprises d’IA pour vendre du rêve. Il permet de recruter et d’attirer des financements « , tempère Hubert Etienne, chercheur en éthique de l’IA qui a travaillé chez Meta.
Cependant, la perspective de l’arrivée prochaine de cette AGI suscite des inquiétudes quant aux dangers qu’elle pourrait entraîner.
Une vision étroite de la sécurité de l’IA
Pour se démarquer, Ilya Sutskever use d’un différentiateur dans sa présentation : la superintelligence de SSI serait d’emblée « sûre ». Son discours rappelle celui de Dario et Daniela Amodei, autres anciens salariés d’OpenAI partis en 2019 suite à des désaccords liés à l’investissement de Microsoft. Eux aussi ont placé la sécurité au cœur des missions d’Anthropic, fondée deux ans plus tard, et la présentent comme un différentiateur qui leur donnerait le beau rôle de chevalier blanc du secteur.
La startup, financée par des milliards d’Amazon et de Google depuis 2023, a même créé une échelle à quatre niveaux du danger des modèles d’IA pour l’humanité. Concrètement, son équipe de » alignement » développe et teste différentes mesures de protection.
Toujours vague sur sa définition de « sécurité » de l’IA, Ilya Sutskever affirme pouvoir l’améliorer par rapport à l’état de l’art grâce à des innovations au cœur de l’ingénierie des modèles d’IA. En d’autres termes, il promeut la sécurité par conception plutôt que d’ajouter des contrôles a posteriori. Cette vision techno-solutionniste, où la réponse aux problèmes serait simplement un défi technique, est loin d’être partagée par les spécialistes des questions éthiques.
» Si l’objectif des géants de l’IA est de créer Dieu sur Terre, ils ont besoin d’experts qui ne soient pas seulement des ingénieurs. Ils ont besoin d’une diversité transdisciplinaire. dans leurs équipes pour intégrer les enjeux juridiques, éthiques et sociaux « , dit Hubert E.le vôtre.
Jusqu’à présent, l’approche de Sutskever, comme celle d’OpenAI, d’Anthropic et d’autres, se concentre uniquement sur les catastrophes. En conséquence, la mise en danger des populations vulnérables par l’IA est reléguée au second plan, alors qu’elle pourrait être incluse dans la définition d’une IA « sûre ».
Oui à l’autorégulation, non à la régulation
Si cet objectif de « sécurité » est martelé par les géants de l’IA, ils s’activent contre toute forme de régulation. En réaction au vote de l’AI Act, texte européen majeur régulant la technologie, plusieurs entreprises ont décidé de ne tout simplement pas sortir certains modèles ou fonctionnalités d’IA en Europe, à l’image de Meta avec la version la plus puissante de Llama 3.
Leur combat se poursuit désormais en Californie, où le gouvernement tente de faire passer un projet de loi appelé SB 1047. L’enjeu : la plupart des grandes entreprises d’IA ayant leur siège social en Californie, la réglementation locale aurait des répercussions sur l’ensemble du secteur. Le projet de loi obligerait les développeurs de la poignée de modèles d’IA les plus puissants à subir des tests de sécurité, pour éviter le risque de « nuisance catastrophique » de leur technologie.
Dans le détail, ces contrôles visent à empêcher l’IA de déclencher des cyberattaques qui entraîneraient des pertes humaines ou des incidents coûtant plus de 500 millions de dollars en dommages financiers. En d’autres termes, le projet de loi ne vise qu’à éviter les cas les plus extrêmes.
Mais de leur côté, les géants de l’IA craignent que la régulation n’impose des contraintes trop floues ou trop difficiles à mettre en œuvre. Dans un secteur très concurrentiel où le temps est très précieux, ils préfèrent logiquement contrôler eux-mêmes le fragile équilibre entre course à la performance et gestion des risques. Quitte à s’opposer à des initiatives a priori conformes à leurs discours. Le projet de loi californien s’appuie sur des mesures qu’OpenAI, Anthropic et d’autres mettent déjà en œuvre de leur côté, comme le rappelle le Wall Street Journal.
Bien que proposant un niveau de réglementation très bas, le SB 1047 a néanmoins reçu le soutien de certains acteurs de l’industrie, à travers une lettre signée par des stars de l’IA comme Geoffrey Hinton et Yoshua Bengi. Ce serait une erreur historique de supprimer des mesures réglementaires fondamentales de ce projet de loi, une erreur qui deviendrait encore plus évidente dans un an, lorsque la prochaine génération de systèmes d’IA encore plus puissants sera déployée. « , arguent-ils. Mais les entreprises d’IA semblent déterminées à privilégier la voie de l’autorégulation, même si une partie de l’industrie se dit publiquement favorable à une régulation au niveau fédéral, où pour l’instant des dizaines de propositions de loi restent bloquées dans la machine parlementaire.