L’IA ne peut pas être laissée aux « caprices » du marché, avertissent les experts de l’ONU
« Si rien n’est fait, les dangers posés par l’intelligence artificielle pourraient avoir de graves conséquences pour la démocratie, la paix et la stabilité », affirment les auteurs d’un rapport.
Le développement de l’intelligence artificielle (IA) et les risques associés ne peuvent être abandonnés.aux caprices » du marché, avertissent jeudi des experts de l’ONU, qui réclament des outils de coopération internationale sans aller jusqu’à une agence de gouvernance mondiale.
Il y a près d’un an, le secrétaire général de l’ONU Antonio Guterres avait mis en place ce comité composé d’une quarantaine d’experts dans les domaines de la technologie, du droit et de la protection des données personnelles, issus du monde universitaire, des gouvernements et du secteur privé comme Microsoft, Google-Alphabet et OpenAI. Leur rapport final, publié quelques jours avant le « Sommet pour l’avenir » de New York, constate sans surprise « le déficit de gouvernance mondiale dans le domaine de l’IA » et la quasi-exclusion des pays en développement des discussions sur un sujet existentiel.
Ainsi, sur les 193 États membres de l’ONU, seuls sept font partie de sept grandes initiatives liées à la gouvernance de l’IA (dans le cadre de l’OCDE, du G20 ou du Conseil de l’Europe), et 118 en sont totalement absents, principalement des pays du Sud. Or, le caractère même « transfrontalier » de ces technologies « nécessite une approche globale », insiste le comité. « L’IA doit servir l’humanité de manière juste et sûre », a répété Antonio Guterres cette semaine. « Si rien n’est fait, les dangers posés par l’intelligence artificielle pourraient avoir de graves implications pour la démocratie, la paix et la stabilité. »
Le rôle « crucial » des gouvernements
Dans ce contexte, le comité d’experts appelle les États membres de l’ONU à mettre en place des outils pour une meilleure coopération mondiale, encourager le progrès de l’humanité et éviter les dérapages. Car « personne » ne peut aujourd’hui prédire l’évolution de ces technologies et ceux qui prennent les décisions ne sont pas responsables lorsqu’ils développent et utilisent des systèmes « qu’ils ne comprennent pas ». Dans ces circonstances, « le développement, le déploiement et l’utilisation de telles technologies ne peuvent être laissés uniquement aux caprices des marchés », insistent-ils, soulignant le rôle « crucial » des gouvernements et des organisations régionales.
Le premier outil proposé est la création d’un Groupe international d’experts scientifiques sur l’IA, inspiré du modèle des experts climat de l’ONU (GIEC), dont les rapports font référence en la matière. Ces scientifiques informeraient la communauté internationale sur les risques émergents, les secteurs où des recherches supplémentaires sont nécessaires, ou identifieraient comment certaines technologies pourraient contribuer à atteindre les objectifs de développement durable (élimination de la faim, de la pauvreté, égalité des sexes, climat, etc.). Cette idée est reprise dans le projet de Pacte numérique mondial, toujours en discussion, qui doit être adopté dimanche par les 193 États membres de l’ONU lors du « Sommet du futur ». Les experts suggèrent également la mise en place d’un dialogue politique intergouvernemental régulier sur le sujet et d’un fonds pour aider les pays en retard.
Évitez d’être « pris par surprise »
Pour servir de « ciment » entre les différents outils, ils prônent la mise en place d’une structure légère au sein du secrétariat de l’ONU. En revanche, ils ne soutiennent pas l’idée d’une agence de gouvernance internationale à part entière, évoquée notamment par Antonio Guterres, sur le modèle de l’Agence internationale de l’énergie atomique (AIEA), par exemple. Même si leur mandat leur demandait d’explorer cette possibilité, « nous ne recommandons pas à ce stade la mise en place d’une telle agence ». « Si les risques de l’IA deviennent plus graves, et plus concentrés, il pourrait devenir nécessaire pour les États membres d’envisager une institution internationale plus robuste, dotée de pouvoirs de surveillance, de rapport, de vérification et d’application », tempèrent-ils.
S’ils notent qu’établir une liste exhaustive des risques est une « cause perdue » dans un secteur au développement ultra-rapide dont personne ne peut prévoir l’évolution, ils listent néanmoins certains dangers identifiés : désinformation qui menace la démocratie, deepfakes plus personnels (notamment sexuels), violations des droits humains, armes autonomes, utilisation par des groupes criminels ou terroristes… « Étant donné la rapidité, l’autonomie et l’opacité des systèmes d’IA, attendre qu’une menace émerge pourrait signifier qu’il est déjà trop tard pour y répondre », admettent-ils, comptant sur une évaluation scientifique constante et des échanges politiques pour que « le monde ne soit pas pris par surprise ».
hd1