« Pour le pape François, l’intelligence artificielle est un enjeu de société »
La Croix : Le pape s’intéresse-t-il personnellement à l’intelligence artificielle (IA), sujet sur lequel il doit s’exprimer vendredi 14 juin lors du sommet du G7 ?
Paolo Benanti : Ce qui lui importe, quel que soit le sujet, c’est l’effet sur les pauvres. Il manque bien sûr de connaissances techniques, mais il comprend que l’IA peut avoir un effet énorme sur la pauvreté. A ce titre, cela s’inscrit à ses yeux dans des problématiques sociales, comme celles des migrants ou de l’environnement.
Il y a une dizaine d’années, la réflexion catholique sur la technologie était très centrée sur le transhumanisme, et très critique. Aujourd’hui, l’IA semble être accueillie plus favorablement par l’Église. Pourquoi ce changement de ton ?
PA : Parce que ce sont deux choses différentes. Le transhumanisme est une philosophie et une idéologie. L’intelligence artificielle est une technologie. Ce n’est pas problématique en tant que tel, mais à travers ses effets sur la société et l’intention de ceux qui l’utilisent. Un « assistant virtuel » niché dans un téléphone portable peut être le pire ennemi d’un adolescent, s’il l’encourage à faire de mauvais choix, mais il peut aussi sauver la vie d’une personne âgée, si celui-ci a eu un accident et qu’elle l’utilise pour appeler pour aider. Nous pouvons avoir une opinion bien arrêtée sur une idéologie, pas sur une technologie.
Dans son message pour la paix prononcé le 2 janvier – en quelque sorte son premier discours sur l’IA – le pape François insiste néanmoins sur le fait que la technologie n’est pas neutre. Ne façonne-t-il pas le monde dans lequel il se situe ?
PA : Attention, ce discours porte bien sur la paix : il ne s’agit en aucun cas d’un traité systématique sur l’IA ! Cela étant dit, je suis le premier à dire qu’il n’existe pas de technologie « neutre ». Tout objet technologique génère un déplacement de pouvoir. L’automobile, par exemple, a favorisé l’émergence il y a un siècle d’un espace public « fait pour elle », peu gêné par le désir de chacun de prendre ou non sa voiture.
Mais ce n’est pas parce que les technologies ne sont pas neutres qu’elles sont mauvaises. Les entreprises, d’après mon expérience, ne sont pas l’ennemie du bien : beaucoup recherchent un dialogue honnête et ouvert. Bien entendu, cela ne garantit pas que tout se passera bien. Mais faire preuve de discernement, pour reprendre les mots du Pape, fait désormais partie des affaires.
On parle parfois d’« éthique-washing », qui consiste pour les entreprises à rassurer le public tout en continuant à déployer leurs systèmes. Leurs approches en matière d’éthique technologique vous semblent-elles sincères ?
PA : L’éthique ne résoudra pas tous les problèmes, mais elle peut avoir des effets positifs. S’aligner sur de tels principes donne en effet un avantage aux entreprises en vue de réguler le marché : elles savent que cela leur coûtera ensuite moins cher de s’y conformer.
L’éthique donne aussi du sens au travail, à l’heure où de nombreux salariés souhaitent jouer un rôle positif dans la société. Cela est vrai parmi les catholiques comme parmi les croyants d’autres religions. C’est pourquoi l’appel de Rome à l’éthique de l’IA (Initiative du Vatican prise en 2020, NDLR) a été étendu aux musulmans et aux juifs en 2023, et aux autres religions en juillet prochain.
En tout cas, il me semble clair qu’il ne faut pas laisser les entreprises s’approprier la question éthique. Cela reviendrait déjà à décider que nous ne voulons pas de cette éthique. Je comprends évidemment qu’ils s’intéressent beaucoup à ce sujet, mais il ne faut pas céder là-dessus.
Quelle est la particularité de la vision catholique de l’IA ?
PA : Produire des textes du Magistère prend du temps. Il est trop tôt pour attendre une réflexion solide et structurée de la part de l’Église ; une période de maturation est indispensable. N’oublions pas qu’il y a un an et demi, personne n’avait entendu parler de ChatGPT. Mais cela ne nous empêche pas, comme théologiens, philosophes, catholiques, de mener aujourd’hui un travail qui, je l’espère, nourrira le discernement de l’Église en vue de prendre position plus tard.
Comment l’IA affecte-t-elle l’anthropologie chrétienne ? Ces systèmes dits « intelligents » peuvent-ils relativiser la place de l’homme au sommet de la vie intellectuelle ?
PA : Je ne crois pas qu’une machine puisse changer qui nous sommes. L’IA peut bien sûr nous enfermer dans une cage dorée. Mais notre dignité, Dieu merci, aucune technologie ne peut nous l’enlever.
Quelle « cage dorée » ?
PA : Échanger notre liberté contre du confort. Quand on voit quelqu’un taper sur le clavier de son ordinateur portable, on peut se demander : est-ce que ses doigts contrôlent la machine, ou est-ce que ce sont les notifications qui le contrôlent ? Au lieu de nous donner la capacité de satisfaire nos désirs les plus profonds, ces outils peuvent satisfaire des besoins secondaires. Nous devons protéger les personnes vulnérables (les plus jeunes, les plus âgées) de ces effets.
Le problème est que beaucoup de gens pensent qu’ils n’ont encore qu’un usage limité de l’IA. Mais quiconque utilise Google est lié à une IA ! Son algorithme décide pour moi de ce que je verrai ou non. Ces mécanismes nous orientent dans une direction : c’est déjà une limitation de notre liberté. Pourtant, la liberté et la dignité sont au cœur de la réflexion théologique sur ces sujets.
Vous parlez d’« algor-éthique », mais est-ce que tout le monde ne donne pas la définition qu’il veut à ce terme ?
PA : J’ai été le premier à utiliser ce mot, en 2018, et je pense que ma définition s’applique à tout le monde. Ce n’est pas parce que certains appellent « amour » ce qui est en réalité une dépendance sexuelle que la définition de l’amour change.
La définition est-elle différente de celle de l’éthique technologique ?
PA : Non. C’est une éthique des technologies qui s’applique aux algorithmes. Il s’agit de voir comment ceux-ci façonnent le pouvoir et le déplacent au sein de la société. Un exemple : en Italie, lors de la pandémie de Covid-19, les rendez-vous de vaccination étaient fixés par un algorithme. D’un point de vue formel, il s’agit d’un transfert de pouvoir, à l’image des ponts construits par Robert Moses à New York au début du XXe siècle.
Dans ce contexte, la mission des chrétiens est d’éclairer ce processus, puis d’agir. Nous devons porter la lumière. Sans s’arrêter à un argument chrétien ! Lorsque je parle avec des musulmans et des juifs de l’intelligence artificielle et de sa régulation, notamment au sein du comité des Nations Unies (Comité consultatif sur l’IA, NDLR) dont je fais partie, j’ai l’impression que nous parlons le même langage.
Certains soutiennent que la question ne devrait pas être de savoir comment rendre l’IA acceptable ou éthique, mais plutôt quelle société l’IA crée et si nous voulons cette société. Qu’en penses-tu ?
PA : Ce sont les deux faces d’un même problème. Définir la société dans laquelle nous voulons vivre, c’est aussi réfléchir à ce que l’IA est acceptable. Si je dis que je veux construire une société dans laquelle la dignité est le premier critère, cela veut dire que je refuse tout ce qui la porte atteinte. A l’inverse, si je juge qu’un outil est inacceptable, c’est parce qu’il contribue à construire une société dont je ne veux pas.
En tant que chrétiens, nous avons un devoir : supporter la complexité. Dans le catholicisme, nous sommes capables de penser des réalités contradictoires. Jésus-Christ était homme et Dieu. Dans le domaine de l’IA, il faut penser qu’il faut prendre en compte cette complexité, sans se focaliser uniquement sur l’outil.
Selon vous, quelle société l’IA est-elle en train de créer ?
PA : C’est très différent selon l’endroit où l’on se trouve dans le monde. Cela fait aussi partie de la complexité. Les États-Unis sont dirigés par le marché, la Chine par l’État. La nouvelle réglementation européenne sur l’IA (la loi sur l’IAadopté le 21 mai, NDLR) nous apprendra quel type de société nous sommes capables de construire en Europe.
L’IA est aujourd’hui principalement utilisée pour optimiser les flux, réduire les coûts, et donc accélérer le mouvement de la société. Est-il écologiquement durable et compatible avec les exigences de Laudato si’et de Fratelli tutti ?
PA : On peut tout à fait imaginer que l’IA nous aidera à avoir une société plus durable, en accélérant l’usage du numérique. Si vous regardez un film en streaming, cela consommera moins d’énergie que si vous preniez votre voiture pour aller au cinéma, vous asseoir dans une salle climatisée et manger du pop-corn…
L’IA est un multiplicateur : elle peut multiplier les richesses ainsi que les inégalités et les injustices. Avoir une éthique sur l’IA signifie qu’il faut toujours placer ces systèmes sous le prisme de la réflexion et de la critique sociale. Tel est le rôle des chrétiens : les pieds sur terre et la tête vers le ciel. Notre rôle est de nous engager pour changer la société. Si nous ne le faisons pas, nous ferons partie du problème et non de la solution.
——
Expresso bio
Paolo Benanti, 50 ans, est un prêtre et théologien italien, membre du Tiers Ordre Franciscain. Il est ce qu’on appelle au Vatican un « consultant », nommé par le pape, sur les questions technologiques.
Il enseigne la théologie morale et la bioéthique à l’Université pontificale grégorienne de Rome, mais aussi l’éthique des technologies à l’Université de Seattle (États-Unis). Là, ses étudiants sont notamment les futurs salariés de Microsoft, dont le siège est situé à proximité.
Ce franciscain atypique porte une Apple Watch et participé aux célèbres conférences TED (Technologie, divertissement et design). Il a notamment expliqué sa notion d’« algor-éthique », théorisée en 2018.
Membre de l’organe consultatif des Nations Unies sur l’intelligence artificielle, En janvier dernier, il a été nommé président de la Commission IA du gouvernement italien.