Bourse Entreprise

L’IA ne peut pas être laissée aux « caprices » du marché, avertissent les experts de l’ONU

Le développement de l’intelligence artificielle (IA) et les risques associés ne peuvent être abandonnés « aux caprices » du marché, ont averti jeudi des experts de l’ONU, qui réclament des outils de coopération internationale sans aller jusqu’à une agence de gouvernance mondiale.

• A lire aussi : L’IA pour traquer les fuites de méthane, ennemies du climat

• A lire aussi : La Maison Blanche détaille les conditions d’utilisation de l’IA par l’administration

Il y a près d’un an, le secrétaire général de l’ONU, Antonio Guterres, a créé ce comité composé d’une quarantaine d’experts dans le domaine des technologies, du droit et de la protection des données personnelles, issus du monde universitaire, des gouvernements et du secteur privé comme Microsoft, Google-Alphabet et OpenAI.

Leur rapport final, publié quelques jours avant le « Sommet pour l’avenir » de New York, constate sans surprise « le déficit de gouvernance mondiale dans le domaine de l’IA », et la quasi-exclusion des pays en développement des discussions sur un sujet existentiel.

Ainsi, sur les 193 États membres de l’ONU, seuls sept font partie de sept grandes initiatives liées à la gouvernance de l’IA (dans le cadre de l’OCDE, du G20 ou du Conseil de l’Europe), et 118 sont totalement absents, principalement des pays du Sud.

Toutefois, la nature « transfrontalière » de ces technologies « nécessite une approche globale », insiste le comité.

« L’intelligence artificielle doit servir l’humanité de manière juste et sûre », a réitéré António Guterres cette semaine. « Si rien n’est fait, les dangers posés par l’intelligence artificielle pourraient avoir de graves conséquences pour la démocratie, la paix et la stabilité. »

Le rôle « crucial » des gouvernements

Dans ce contexte, le comité d’experts appelle les États membres de l’ONU à mettre en place des outils pour une meilleure coopération mondiale, encourager le progrès humain et éviter les excès.

Parce que « personne ne peut prédire l’évolution de ces technologies aujourd’hui » et ceux qui prennent les décisions ne sont pas responsables lorsqu’ils développent et utilisent des systèmes « qu’ils ne comprennent pas ».

Dans ces circonstances, « le développement, le déploiement et l’utilisation de telles technologies ne peuvent être laissés aux seuls caprices des marchés », insistent-ils, soulignant le rôle « crucial » des gouvernements et des organisations régionales.

Le premier outil proposé est la création d’un groupe international d’experts scientifiques sur l’IA, inspiré du modèle des experts climatiques de l’ONU (GIEC), dont les rapports font référence dans ce domaine.

Ces scientifiques informeraient la communauté internationale sur les risques émergents, les secteurs où des recherches supplémentaires sont nécessaires ou identifieraient comment certaines technologies pourraient contribuer à atteindre les objectifs de développement durable (élimination de la faim, de la pauvreté, égalité des sexes, climat, etc.).

Cette idée est reprise dans le projet de Pacte numérique mondial, toujours en discussion, qui doit être adopté dimanche par les 193 États membres de l’ONU lors du « Sommet du futur ».

Les experts suggèrent également d’établir un dialogue politique intergouvernemental régulier sur le sujet et un fonds pour aider les pays en retard.

Évitez d’être « pris par surprise »

Pour servir de « ciment » entre les différents outils, ils prônent la mise en place d’une structure légère au sein du secrétariat de l’ONU.

En revanche, ils ne soutiennent pas l’idée d’une agence de gouvernance internationale à part entière, évoquée notamment par Antonio Guterres, sur le modèle, par exemple, de l’Agence internationale de l’énergie atomique (AIEA).

Bien que leur mandat leur demande d’explorer cette possibilité, « nous ne recommandons pas à ce stade la création d’une telle agence ».

« Si les risques liés à l’IA deviennent plus graves et plus concentrés, il pourrait devenir nécessaire pour les États membres d’envisager la création d’une institution internationale plus robuste, dotée de pouvoirs de surveillance, de rapport, de vérification et d’application », tempèrent-ils.

Même s’ils notent qu’établir une liste exhaustive des risques est une « cause perdue » dans un secteur au développement ultra-rapide dont personne ne peut prévoir l’évolution, ils listent néanmoins certains dangers identifiés : désinformation menaçant la démocratie, deepfakes plus personnels (notamment sexuels), violations des droits humains, armes autonomes, utilisation par des groupes criminels ou terroristes…

« Étant donné la rapidité, l’autonomie et l’opacité des systèmes d’IA, attendre qu’une menace apparaisse pourrait signifier qu’il est déjà trop tard pour réagir », admettent-ils, comptant sur une évaluation scientifique constante et des échanges politiques pour que « le monde ne soit pas pris par surprise ».

journaldemontreal-boras

Bouton retour en haut de la page