« La course au plus grand modèle ne devrait pas être l’objectif final de l’industrie » (Linda Griffin, Mozilla)
« La réglementation tue l’innovation. » Ce refrain est revenu en force dans les discours des Big Tech ces dernières semaines. Meta, Apple et OpenAI menacent de ne pas déployer leurs modèles d’IA générative dans l’Union européenne, jugeant le règlement » incompatible » et trop restrictif. Mozilla, pionnier du Web et défenseur de l’open source, adopte une position différente. Impliqué dans l’élaboration de l’AI Act depuis 2019 et actif dans l’organisation du futur Sommet de Paris, la fondation défend une IA « au service de l’intérêt général »vraiment transparent et ouvert. Expliqué avec Linda Griffin, vice-présidente des politiques publiques chez Mozilla.
LA TRIBUNE- Récemment, Meta et une trentaine d’autres entreprises ont signé une lettre avertissant l’Europe qu’elle risquait de se démanteler en raison de réglementations incohérentes en matière d’intelligence artificielle. Quelle est votre position sur ce sujet ?
LINDA GRIFFIN- Cette lettre ressemble à un argumentaire de vente. Ils ont le droit de défendre leurs activités, mais prétendre qu’ils défendent l’économie et l’innovation en général me semble inapproprié. La réglementation peut effectivement ralentir leur activité en Europe, mais elle permet également l’émergence de petites organisations et empêche la monopolisation du secteur par quelques acteurs. En affirmant que la régulation tue l’innovation, ils créent une vision binaire qui n’existe pas. Au-delà des enjeux économiques, la transparence de l’IA est cruciale, notamment pour la protection de la vie privée et du droit d’auteur. La course au plus grand modèle linguistique ne devrait pas être le but ultime de cette industrie.
Selon vous, quel devrait être l’objectif ?
Nous voulons faire pour l’IA ce que nous avons fait pour Internet il y a 30 ans. Dans les années 1990, Mozilla s’est battu pour empêcher Microsoft d’imposer son navigateur (Internet Explorer, ndlr) à tous les utilisateurs et pour proposer des alternatives open source à but non lucratif. Nous assistons aujourd’hui à une dynamique similaire de concentration du pouvoir, dans laquelle les technologies sont développées principalement dans un but lucratif et non dans l’intérêt public. C’est pourquoi nous défendons le développement de l’IA pour servir cet intérêt collectif (l’entreprise vient de publier un rapport à ce sujet, ndlr).
Nous travaillons sur l’AI Act depuis 2019 et avons renforcé nos efforts sur le sujet au cours de l’année écoulée. En 2023, nous avons lancé Mozilla Ventures, un fonds d’investissement ainsi qu’un laboratoire de recherche en IA, qui a déjà donné naissance à trois projets expérimentaux. Nous participons également aux groupes de travail de l’AI Action Summit, prévu en février à Paris.
Meta met aujourd’hui en avant l’open source, une philosophie chère à Mozilla. Est-ce une bonne nouvelle ?
Pour Meta, l’open source se limite à permettre aux utilisateurs de télécharger gratuitement un modèle sur leur matériel. Mais l’open source va plus loin : il doit permettre d’accéder à l’intégralité du code, pour pouvoir le modifier. Meta a popularisé le terme « source ouverte », mais en changeant sa signification, ce qui a causé des dommages à la communauté open source. Nous plaidons pour une clarification de ce qu’est l’open source dans le domaine de l’IA, comme cela a été fait pour les logiciels.
L’Open Source Initiative (OSI) a publié une première définition en août. Celui-ci précise notamment que l’IA open source peut être utilisée librement à toutes fins, et que ses composants et son fonctionnement doivent pouvoir être examinés. Il s’agit d’un premier pas positif que nous soutenons. Cette définition devra ensuite être affinée. Nous ne sommes pas des puristes par principe, mais parce que nous pensons que l’open source est indispensable.
Pourquoi est-ce si important ?
C’est encore plus crucial que pour les logiciels traditionnels. Le logiciel suit un comportement prévisible, mais avec le apprentissage automatiqueet plus particulièrement l’IA générative, c’est beaucoup plus complexe. Le modèle apprend à partir de certaines données et n’est pas programmé pour une tâche spécifique. Sans accès au code et aux données de formation, il est impossible de comprendre son fonctionnement. En protégeant ces informations et en refusant toute réglementation, les Big Tech demandent aux citoyens et aux gouvernements de leur faire aveuglément confiance, ce qui est une stratégie risquée.
L’industrie de l’IA reste très opaque lorsqu’il s’agit de données de formation. Pour quoi ?
Les données, c’est le pouvoir. Les entreprises n’ont donc aucun intérêt à révéler ce qui se cache sous le capot. Avec l’AI Act, les fournisseurs de modèles d’IA à usage général seront soumis à des obligations de transparence concernant les ensembles de données utilisés pour entraîner leurs modèles. Lorsque la réglementation entrera en vigueur, dans environ un an et demi, certaines de ces données seront rendues publiques. Ils incluront probablement du contenu protégé par le droit d’auteur, ce qui pourrait entraîner des poursuites. En gardant ces informations secrètes, les entreprises gardent le contrôle le plus longtemps possible. Cette course au plus grand modèle de langage nous pousse à accumuler toujours plus de données, sans penser à l’utilisation de jeux de données plus transparents et de meilleure qualité. C’est une course vers le bas.
Mozilla se bat pour un Internet libre et ouvert, mais aujourd’hui les réseaux sociaux, qui dominent l’espace en ligne, ne respectent pas vraiment ces principes. Comment espérer gagner cette bataille pour l’IA ?
Les gouvernements sont conscients d’avoir raté quelque chose avec les réseaux sociaux, en ne les régulant pas à temps. On en voit les conséquences aujourd’hui, notamment sur la santé mentale des jeunes. Les autorités sont déterminées à ne pas répéter les mêmes erreurs avec l’intelligence artificielle.
Vous participez activement à l’organisation du prochain Sommet de Paris sur l’intelligence artificielle. Qu’attendez-vous de cet événement ?
Les organisateurs du Sommet de Paris se sont efforcés d’inclure diverses voix sur l’intelligence artificielle. Le précédent sommet au Royaume-Uni n’a pas suffisamment inclus de représentants de la société civile. Il s’était trop focalisé sur les risques existentiels pour l’humanité que pouvait présenter l’intelligence artificielle, obsession d’un petit groupe d’hommes dont les voix sont devenues trop importantes. Où sont les preuves de ces risques ? D’un autre côté, il existe de nombreuses preuves montrant comment les algorithmes affectent déjà la vie des gens, renforçant les préjugés, les stéréotypes sexuels et raciaux et amplifiant la discrimination. Le Sommet de Paris aborde enfin ces questions.