Bourse Entreprise

La Californie adopte une loi controversée pour réguler l’IA

Si l’IA générative permet aujourd’hui de produire du contenu de qualité (textes, images, etc.) sur une simple requête en langage courant, elle a aussi le potentiel, selon les ingénieurs impliqués, d’aller beaucoup plus loin et donc de résoudre des problèmes importants, mais aussi d’en provoquer.

C’est pourquoi la législature californienne a adopté mercredi une loi visant à la réglementer. « Loi pour une innovation sûre dans les modèles d’IA pionniers »il vise à empêcher les grands modèles de provoquer des catastrophes majeures, entraînant la mort d’un grand nombre de personnes ou des incidents de cybersécurité importants.

 » Je suis fier de la diversité de la coalition qui a soutenu ce projet de loi, une coalition qui croit profondément à l’innovation et à la sécurité. « , a déclaré sur X Scott Wiener, l’élu démocrate qui a parrainé le texte.

Scott Wiener a assoupli le texte original : les développeurs de grands modèles d’IA devront tester leurs systèmes et simuler des cyberattaques, sous peine d’amendes, mais sans menace de conséquences pénales.

Le gouverneur de Californie Gavin Newsom a jusqu’au 30 septembre pour signer la loi ou y opposer son veto. Sa décision fera forcément des heureux et des déçus : le texte divise les entreprises, les chercheurs et même les élus démocrates. « dominateurs » (que l’on pourrait traduire par pessimistes dans ce contexte) : ceux qui pensent que l’intelligence artificielle peut surpasser l’humain et potentiellement provoquer sa chute. A l’autre bout du spectre, on trouve les « accélérationnistes efficaces », les optimistes qui pensent aussi que l’IA peut devenir surpuissante, mais qu’il faut embrasser ce progrès technologique sans crainte, et surtout, sans régulation.

« Beaucoup d’entre nous au Congrès pensent que le projet de loi SB 1047 est bien intentionné mais mal informé », « Nous sommes tous là », a déclaré récemment Nancy Pelosi, représentante de Californie à Washington et l’une des voix les plus influentes du parti.

 » Nous voulons que la Californie soit à l’avant-garde de l’IA d’une manière qui protège les consommateurs, les données, la propriété intellectuelle et plus encore. (…) Le projet de loi SB 1047 nuit à cet objectif plus qu’il ne l’aide.  » a-t-elle ajouté.

OpenAi s’inquiète pour la Silicon Valley,

Plusieurs entreprises du secteur ont exprimé leur opposition, OpenAI en tête. Le créateur de ChatGPT craint une fuite des innovateurs de l’État américain et de sa célèbre Silicon Valley, et préférerait une législation nationale. Son concurrent Anthropic estime au contraire que les avantages de la nouvelle loi « surpassera probablement ses coûts ».

Intelligence artificielle : la Californie cherche aussi à fixer des limites, en s’inspirant de l’UE

Ce projet de loi « impose des réglementations lourdes et irréalistes au développement de l’IA » et constitue donc « une menace importante pour notre capacité à faire avancer la recherche »Anima Anandkumar, professeure à CalTech, a déclaré sur X (ex-Twitter). Elle estime qu’il est difficile, voire impossible, de prédire toutes les utilisations néfastes possibles d’un modèle d’IA, en particulier les soi-disant « open source »dont le code peut être modifié par les utilisateurs.

Musk soutient la loi

Plus surprenant, le texte a reçu le soutien d’Elon Musk, souvent en colère contre les autorités de nombreux pays. Le patron de Tesla, X et de la start-up d’IA générative xAI, estime que les risques que l’IA fait peser sur la population justifient une réglementation. « C’est une décision difficile qui va contrarier certaines personnes. »a-t-il déclaré lundi. « Les systèmes d’IA puissants sont extrêmement prometteurs, mais ils présentent également des risques bien réels qui doivent être pris très au sérieux. »Geoffrey Hinton, informaticien stressé, a considéré le « Parrain de l’IA »dans une chronique du magazine Fortune. « Le projet de loi SB 1047 représente une approche très raisonnable pour équilibrer ces préoccupations. »Il a poursuivi en estimant que la Californie est l’endroit idéal pour commencer à réglementer cette technologie.

La loi adoptée par la Californie rappelle un texte adopté mi-mars par le Parlement européen. Ce dernier encadre les modèles d’IA et établit des contraintes en termes de transparence, de droits d’auteur et de protection de la vie privée. Les développeurs de ces modèles devront fournir des informations détaillées sur les contenus qu’ils ont utilisés, notamment les textes et les images, afin de pouvoir les utiliser. « s’entraîner » leurs systèmes. Ils devront se conformer à la législation européenne sur le droit d’auteur. Les exigences seront plus strictes pour les modèles les plus puissants, qui, selon l’UE, présentent un « risque systémique »comme ChatGPT ou Gemini de Google. Les entreprises proposant ces technologies devront évaluer et atténuer les risques, suivre et signaler les incidents graves à la Commission, offrir des garanties de cybersécurité et fournir des informations sur la consommation énergétique de leurs modèles.

(Avec AFP)