l’Union européenne fixe de nouvelles limites
Une pyramide des risques à quatre niveaux, allant du feu vert à l’interdiction pure et simple. C’est à quoi ressemble l’AI Act, le nouveau règlement européen sur l’intelligence artificielle (IA). Sans précédent à l’échelle mondiale, elle doit être définitivement adoptée ce mardi 21 mai à Bruxelles. Il n’entrera pleinement en vigueur qu’en 2026.
Ainsi se termine un processus législatif de longue haleine (trois ans) parfois perturbé par l’émergence de nouvelles technologies, comme ChatGPT fin 2022. Ces évolutions ont contraint le législateur à revoir sa copie, et renforcé encore le débat politique.
Parce que les quatre niveaux de risque, qui La Croix aujourd’hui, sont le résultat d’un « marchandage » intense entre les institutions européennes : quel système intégrer dans quelle catégorie ? Pour chaque arbitrage, les négociateurs savaient qu’ils étaient sur un objectif : préserver la sécurité et la liberté des peuples sans ralentir l’innovation en Europe… au risque de favoriser les Etats-Unis ou la Chine. C’est ce que n’ont pas manqué de souligner les lobbies de la tech, très actifs sur le sujet.
Le texte final porte leur marque. Car même au niveau de risque maximum, l’interdiction de ces technologies est rarement totale. L’introduction de nombreuses exemptions (pour permettre des usages sécurisés de l’IA, notamment) conduit à cette situation paradoxale : en imposant une interdiction accompagnée d’exemptions, on autorise des pratiques qui étaient auparavant interdites. Comme la reconnaissance faciale en temps réel ou la reconnaissance des émotions, dans certains contextes.
Dans les prochains jours, l’IA sera à l’honneur au grand salon VivaTech, qui se tient pour la huitième fois du 22 au 25 mai à Paris. A la veille de son ouverture, le président Emmanuel Macron pourrait faire des annonces à ce sujet. Car les nombreuses recommandations qui lui ont été faites mi-mars par sa commission IA (notamment en matière d’investissement) attendent toujours une issue politique.
Dans cette actualité chargée, La Croix souhaite éclairer le débat avec rigueur. C’est pourquoi, après s’être penché sur la fin de la vie, l’écologie et la démocratie, le fonds littéraire de notre rubrique « Live » s’enrichit cette semaine d’un nouveau recueil, intitulé L’IA va-t-elle nous remplacer ? (À vive, Bayard, 6,90 €) et constitué des contributions de douze spécialistes reconnus.
▶ Risque faible ou nul
Pas de restrictions (sauf si le système fait l’objet de modifications substantielles, auquel cas les risques devront être réévalués)
Jeu vidéo
Nvidia, Ubisoft et les autres géants du secteur l’ont bien compris : l’IA dite générative (capable de produire de nouveaux contenus après avoir été entraînée sur de très grandes quantités de données) offre des possibilités alléchantes pour le jeu vidéo. Le « gamer » de demain pourra certainement, entre autres, « discuter » oralement avec ses personnages virtuels.
Filtre anti-spam
Ce logiciel vous permet de filtrer automatiquement les emails indésirables ou malveillants. Cependant, le courrier électronique constitue une cible privilégiée pour les infections et autres cyberattaques.
▶ Risque modéré
Obligation de transparence (indiquer que le contenu a été généré par intelligence artificielle)
Falsification d’images
LE contrefaçons profondes, ces fausses photos ou vidéos de plus en plus réalistes et faciles à réaliser, suscitent régulièrement la polémique. Certaines de ces astuces font dire aux personnalités politiques ce qu’elles n’ont pas dit ; d’autres représentent des femmes dans des postures lascives, voire pornographiques, sans leur consentement.
Chatbot
A ce titre, les agents conversationnels (dont le fameux ChatGPT) sont considérés comme des « risque modéré ». En revanche, les « modèles de base » sur lesquels ils sont techniquement construits sont soumis à des obligations renforcées, et plus sévères que ce que souhaitaient l’industrie et certains États (dont la France). Les données utilisées pour entraîner ces modèles doivent par exemple être connues, afin que les potentiels ayants droit puissent vérifier si leur contenu a été utilisé ou non.
▶ Risque élevé
Des usages soumis à des procédures de conformité (vérifier la qualité des données de formation, minimiser les risques de discrimination, assurer un suivi humain…)
Tri des CV
Un logiciel est utilisé pour filtrer les candidatures pour un poste donné. Leur principal problème réside dans les préjugés qu’ils véhiculent. Amazon, par exemple, a abandonné l’utilisation d’un tel outil en 2018 car il discriminait les femmes postulant à des emplois techniques.
Justice prédictive
Il s’agit d’anticiper l’issue d’un litige après avoir passé au moulin algorithmique de très gros corpus juridiques. Les « Legaltech », start-up juridiques proposant ce type de service, se sont multipliées en France où on en compte désormais plusieurs centaines.
Voiture autonome
À la fin des années 2010, on imaginait que les chauffeurs Uber seraient bientôt remplacés par des robots taxis. Mais ceux-ci sont encore loin d’être finalisés, l’heure est aux projets moins ambitieux. Comme le freinage d’urgence automatique ou la direction « mains libres » à basse vitesse.
Détection de faux documents
Ces détecteurs font partie des nouvelles techniques dont disposent les forces de l’ordre, comme les caméras à thermovision pour détecter les passages illégaux des frontières. Plus largement, tous les systèmes d’IA utilisés pour la gestion des migrations sont considérés comme « à haut risque ».
Attribution de crédits bancaires
Ces logiciels dits de « scoring », déjà utilisés dans le monde bancaire, visent à évaluer la solvabilité d’une personne au moment de solliciter un prêt. Cependant, elles peuvent conduire à entériner d’anciens schémas de discrimination (fondés sur l’origine, l’âge, le handicap, etc.).
▶ Risque inacceptable
Utilisation interdite
Notation sociale
Ces systèmes classent les gens en fonction de leur comportement, comme en Chine. Là-bas, les citoyens qui ne paient pas leurs dettes perdent des points, et ceux qui achètent des aliments sains en gagnent, par exemple. Être bien classé facilite l’accès aux soins, aux prêts bancaires ou à la mobilité.
Technique subliminale
Les messages sont conçus pour se situer en dessous du niveau de conscience. Introduire une image tous les vingt-cinquièmes de seconde dans une publicité sera invisible pour le spectateur mais pourrait être utilisé pour le manipuler. Cependant, aucun consensus scientifique n’a émergé sur ce point.
Reconnaissance faciale en temps réel
Ce sujet a été l’un des plus débattus. Le texte prévoit enfin des dérogations pour certaines missions des forces de l’ordre : la prévention d’une menace terroriste, l’identification de suspects de crimes graves ou la recherche de personnes disparues.
Reconnaissance des émotions
Le logiciel prétend détecter les émotions à partir des expressions faciales. Ils sont interdits dans les milieux éducatifs ou professionnels, mais autorisés pour le contrôle des frontières. L’objectif est de déterminer si un migrant est « honnête » ou non dans sa demande de migration.
Police prédictive
Il s’agit d’évaluer, en fonction des caractéristiques d’une personne, le risque qu’elle commette des infractions pénales. Mais l’interdiction n’est pas totale. Ces systèmes pourraient être autorisés dans les enquêtes criminelles, pour réaliser des évaluations humaines basées sur des faits vérifiables.
——-
Trois institutions, trois visions de l’IA
La Commission européenne. Elle a proposé le texte initial, dès 2021. Son approche ne s’appuie pas sur des droits, comme le règlement général sur la protection des données (RGPD), mais sur des risques : seuls les systèmes d’intelligence artificielle (IA) présentant des risques apparents seront réglementés.
Le Parlement européen. Plus sensible au discours des ONG de défense des droits qu’à celui des lobbies technologiques, le Parlement a, dans l’ensemble, cherché à étendre la portée des interdictions. Quitte à s’engager dans un bras de fer parfois tenace avec le Conseil.
Le Conseil de l’Union européenne. Les États membres réunis au sein du Conseil se sont souvent unis pour protéger leurs champions industriels (« Ne ralentissons pas l’innovation »nous en avons beaucoup entendu) et pour permettre des utilisations sûres de l’IA.