Les nouvelles les plus importantes de la journée

Seize entreprises d’intelligence artificielle prennent de nouveaux engagements en matière de sécurité

Seize entreprises d’intelligence artificielle prennent de nouveaux engagements en matière de sécurité
Seize entreprises d’intelligence artificielle prennent de nouveaux engagements en matière de sécurité
Le logo de l’application ChatGPT développée par OpenAI, le 23 novembre 2023 à Francfort (Kirill KUDRYAVTSEV / AFP)

Seize des plus grandes sociétés mondiales d’intelligence artificielle (IA), dont les représentants se sont réunis mardi à Séoul, ont pris de nouveaux engagements pour garantir le développement sûr de cette science, a annoncé le gouvernement britannique.

« Ces engagements garantissent que les principales sociétés mondiales d’IA seront transparentes et responsables de leurs projets visant à développer une IA sûre », a déclaré le Premier ministre britannique Rishi Sunak dans un communiqué publié par le ministère. Institut britannique des sciences, de l’innovation et de la technologie.

L’accord, signé notamment par OpenAI (ChatGPT), Google DeepMind et Anthropic, s’appuie sur le consensus atteint lors du premier « sommet » mondial sur la sécurité de l’IA, l’année dernière à Bletchley Park, au Royaume-Uni. Uni.

Ce deuxième « sommet » à Séoul est organisé conjointement par les gouvernements sud-coréen et britannique.

Les entreprises d’IA qui n’ont pas encore rendu publique la manière dont elles évaluent la sécurité des technologies qu’elles développent s’engagent à le faire.

Des risques « intolérables »

Il s’agit notamment de déterminer quels risques sont « jugés intolérables » et ce que les entreprises feront pour s’assurer que ces seuils ne soient pas franchis, explique le communiqué.

Dans les circonstances les plus extrêmes, les entreprises s’engagent également « à ne pas développer ou déployer un modèle ou un système » si les mesures d’atténuation ne permettent pas de maintenir les risques en dessous des seuils fixés. Ces seuils seront définis avant le prochain « sommet » sur l’IA, en 2025 en France.

Parmi les entreprises qui acceptent ces règles de sécurité figurent également les géants américains de la technologie Microsoft, Amazon, IBM et Meta, le français Mistral AI et le chinois Zhipu.ai.

Ces annonces interviennent alors que les 27 pays membres de l’Union européenne ont définitivement approuvé mardi une législation inédite au niveau mondial pour encadrer les systèmes d’intelligence artificielle (IA) afin de promouvoir l’innovation en Europe tout en limitant d’éventuels abus.

Cette législation, qui s’appliquera principalement à partir de 2026, adopte une approche « basée sur les risques » et impose aux différents systèmes d’intelligence artificielle des contraintes proportionnées aux dangers qu’ils représentent pour la société.

Le succès fulgurant de ChatGPT peu après sa sortie en 2022 a déclenché une ruée dans le domaine de l’IA générative, les entreprises technologiques du monde entier investissant des milliards de dollars dans le développement de leurs propres modèles.

Les modèles d’IA générative peuvent produire du texte, des photos, de l’audio et même des vidéos à partir d’invites simples. Leurs partisans les présentent comme une avancée majeure qui améliorera la vie des citoyens et des entreprises du monde entier.

Mais les défenseurs des droits humains et les gouvernements craignent également leur utilisation abusive dans un large éventail de situations, notamment pour manipuler les électeurs au moyen de fausses nouvelles ou de photos et vidéos « deepfakes » de dirigeants politiques.

Nombreux sont ceux qui exigent que des normes internationales soient établies pour régir le développement et l’utilisation de l’IA.

« Le domaine de la sécurité de l’intelligence artificielle évolue rapidement et nous sommes particulièrement heureux de soutenir les engagements » pris lors de ce sommet dans ce domaine, a déclaré Anna Makanju, vice-présidente d’OpenAI pour les affaires mondiales. , dans un communiqué annonçant mardi les nouveaux engagements.

Accusée par l’actrice Scarlett Johansson d’avoir volontairement et à son insu copié sa voix, la société avait annoncé peu avant qu’elle allait changer de ton, quelques jours seulement après la dissolution de son équipe chargée d’atténuer les éventuels effets à long terme. dangers d’une IA trop intelligente.

L’annonce a été marquée par le départ de l’un des cofondateurs de l’entreprise, Ilya Sutskever, ainsi que du chef d’équipe, Jan Leike.

Outre la sécurité, le « sommet » de Séoul examinera comment les gouvernements peuvent contribuer à stimuler l’innovation (y compris la recherche sur l’IA dans les universités) et comment la technologie pourrait aider à résoudre des problèmes tels que le changement climatique et la pauvreté.

La réunion de deux jours à Séoul se déroule en partie virtuellement, certaines séances se déroulant à huis clos tandis que d’autres sont ouvertes au public dans la capitale sud-coréenne.

Plus tard dans la journée, le président coréen Yoon Suk Yeol et Rishi Sunak devraient co-présider une session virtuelle.

Quitter la version mobile