SB 1047. Ce texte fait grincer des dents certaines entreprises de la tech depuis plusieurs mois. Il fait partie d’une loi visant à réguler l’intelligence artificielle en Californie, qui devrait être votée d’ici la fin du mois. Ce texte, surnommé « AI bill », a été proposé par le sénateur démocrate Scott Wiener en février dernier.
En substance, il demande aux entreprises développant l’IA d’être plus responsables, et d’éviter que leurs systèmes ne causent des dommages considérables, tels que des cyberattaques à grande échelle, la création d’armes nucléaires, le blocage des réseaux électriques, etc.
Que contient la loi ?
Le projet demande aux entreprises de s’assurer de la sécurité de leur IA en informant l’État de leur développement et en réalisant des tests réalisés par un acteur indépendant. Il prévoit également la mise en place d’un « coupe-circuit »c’est-à-dire une fonctionnalité qui permet de désactiver une IA en cas de problème.
Il faut noter que la loi ne s’applique qu’aux modèles dont la formation coûte plus de 100 millions de dollars. Pour l’instant, elle ne concerne que quelques entreprises, comme Microsoft, Google, Meta, OpenAI (le créateur de ChatGPT) et Anthropic, son principal rival. Le projet de loi oblige également les entreprises à offrir des protections supplémentaires aux lanceurs d’alerte qui dénoncent les abus de l’IA.
Un lobbying efficace des géants de l’IA
Cette loi, bien que moins restrictive que notre loi européenne sur l’IA, a suscité des tensions au sein des entreprises de l’écosystème. Ces derniers mois, des représentants de Google, Meta, Anthropic ou encore du fonds d’investissement Andreessen Horowitz s’y sont exprimés. Tous craignent que la loi ne suive pas le rythme des progrès technologiques, qu’elle freine l’innovation et fasse peser une trop grande part de responsabilité sur les développeurs, plutôt que sur les utilisateurs de l’IA.
A tel point qu’à la mi-août, le sénateur a dû réviser sa copie pour y intégrer leurs commentaires. Avec ces récents amendements, le projet de loi ne permet plus au procureur général de poursuivre les entreprises pour négligence en matière de sécurité, comme c’était le cas dans sa version précédente (il ne peut le faire que si une catastrophe est prouvée) ; il ne crée plus une nouvelle agence d’État pour surveiller la conformité des entreprises ; et il n’exige plus que les laboratoires d’IA certifient leurs tests de sécurité.
Le projet de loi n’exige plus non plus des développeurs qu’ils fournissent une « assurance raisonnable » que leurs modèles ne causeront pas de préjudice. Ils doivent désormais uniquement faire preuve de « diligence raisonnable ».
Des inquiétudes injustifiées
Mais ces nombreux assouplissements n’ont pas suffi à apaiser l’ensemble de l’écosystème. Dario Amodei, PDG d’Anthropic, semble rassuré, estimant que la loi a été améliorée. Mais dans une lettre publiée le 23 août, il pointe encore des points négatifs, notamment liés à la rigidité excessive, selon lui, de la loi. Jason Kwon, responsable de la stratégie chez OpenAI, a lui aussi exprimé des craintes. La loi SB 1047 pourrait, écrit-il dans une lettre adressée au sénateur Scott Wiener et consultée par Crise technologiquesupprimer le statut de la Californie en tant que « leader mondial » de l’intelligence artificielle. Rien que ça. L’État américain abrite pourtant la majorité des grands acteurs de l’IA.
Cette loi menace, ajoute-t-il, de « ralentir le rythme de l’innovation et inciter les ingénieurs et entrepreneurs californiens de renommée mondiale à quitter l’État à la recherche de meilleures opportunités ailleurs »OpenAI estime qu’une réglementation au niveau fédéral serait plus appropriée.
Or, agiter le drapeau de « la fin de l’innovation » face à un État trop régulateur est un argument classique avancé par les lobbies de la tech à chaque tentative d’encadrement. On a entendu le même discours en Europe de la part de Mistral AI lorsque la Commission européenne s’apprêtait à signer l’AI Act.
Pour le sénateur, ces critiques sont absurdes. Car son texte, explique-t-il dans un communiqué publié le 21 août, ne vise pas particulièrement les entreprises californiennes, mais toutes celles qui ont une activité en Californie. Il y aurait donc peu d’intérêt pour une firme à déménager son siège social dans l’espoir d’échapper à la législation…
Les géants de la technologie ne sont pas habitués à devoir rendre des comptes
Paradoxalement, OpenAI s’est construite en alertant sur les risques posés par une intelligence artificielle trop efficace, et sur l’importance de la maîtriser. Il en va de même pour Anthropic, qui se définit comme une entreprise spécialisée dans la sécurité de l’IA.
Alors pourquoi tant de débats autour d’un texte qui semble véhiculer un discours similaire ? Certainement parce qu’il touche à la question sensible de la responsabilité des entreprises technologiques.
En effet, le projet de loi fait peser la responsabilité sur les entreprises en cas de déraillement de l’IA. Et cette position n’est pas si courante aux États-Unis. Les géants du numérique sont depuis longtemps (et sont toujours) protégés par l’article 230 d’une loi de 1996, le Communications Decency Act. Cette loi fondatrice définit les plateformes comme de simples hébergeurs et non des éditeurs, et les tient donc non responsables de beaucoup de choses dites ou faites par leurs utilisateurs. Comme le souligne le journaliste Casey Newton dans sa newsletter Platformer, le SB 1047 est « l’anti-article 230 ».
Cette habitude d’être peu, voire pas, réglementé par l’État explique donc ce mouvement de contestation. « C’est une industrie qui s’est habituée à ne pas être réglementée dans l’intérêt public. »assure le sénateur Scott Wiener dans une interview avec L’Atlantique.
Une loi de » les condamnés » ?
Cette loi ravive également les conflits internes entre les différentes communautés d’intelligence artificielle. D’une part, « dominateurs » (qui pourrait être traduit par pessimistes dans ce contexte) : ceux qui pensent que l’intelligence artificielle peut surpasser les humains et potentiellement causer leur chute. La loi qui s’intéresse principalement aux potentiels « dommages considérables » L’IA est soutenue par des chercheurs qui tiennent ce discours plutôt alarmiste comme Yoshua Bengio et Geoffrey Hilton.
À l’autre bout du spectre se trouvent les « accélérationnistes efficaces »les optimistes qui pensent aussi que l’IA peut devenir superpuissante, mais qu’il faut accueillir ce progrès technologique sans crainte, et surtout, sans régulation. C’est le cas notamment de l’investisseur Marc Andreessen, qui s’est positionné contre la loi et qui est l’un des soutiens de Donald Trump pour l’élection présidentielle de novembre.
À côté de ces opinions extrêmes, il y a les défenseurs de l’éthique de l’IA, qui soutiennent que nous devrions donner la priorité à la gestion des risques actuels liés à cette technologie, tels que l’augmentation de la discrimination et des pertes d’emplois, avant de nous inquiéter du risque que des IA superpuissantes anéantissent l’humanité.
Les démocrates se sont également opposés à la loi
Le sénateur Scott Wiener se confie à L’Atlantique ayant découvert ces querelles de factions qu’il compare à celles des Jets et des Sparks (les deux gangs qui s’affrontent dans West Side Story), il nie avoir développé une loi des « doomers ».
« Ce projet de loi ne concerne pas les risques de type Terminator », a expliqué le député dans The Atlantic. « Il s’agit de dommages massifs et très tangibles. Si nous parlons d’un modèle d’IA qui coupe le réseau électrique ou perturbe le système bancaire de manière importante – et facilite grandement la tâche des acteurs malveillants –, cela représente des dommages considérables. Nous savons que des gens essaient de faire cela aujourd’hui, et ils y parviennent parfois, de manière limitée. Imaginez si cela devenait beaucoup plus facile et plus efficace. »
Mais au-delà de l’écosystème, Wiener doit également faire face à des critiques au sein de son propre parti. Plusieurs membres démocrates du Congrès ont encouragé le gouverneur de Californie Gavin Newsom à opposer son veto au projet de loi s’il était adopté. Ils affirment que le projet de loi créerait « « des risques économiques pour la Californie qui ne sont pas nécessaires, alors que les bénéfices pour la sécurité publique seraient très limités. »