Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
Nouvelles techniques

Comment résolvez-vous un problème comme l’IA hors de contrôle ?


La semaine dernière, Google a révélé qu’il se concentrait sur l’IA générative. Lors de sa conférence annuelle I/O, la société a annoncé son intention d’intégrer des outils d’IA dans pratiquement tous ses produits, de Google Docs au codage et à la recherche en ligne. (Lire mon histoire ici.)

L’annonce de Google est énorme. Des milliards de personnes auront désormais accès à des modèles d’IA puissants et de pointe pour les aider à effectuer toutes sortes de tâches, de la génération de texte à la réponse aux requêtes en passant par l’écriture et le débogage de code. Comme l’écrit le rédacteur en chef de MIT Technology Review, Mat Honan, dans son analyse des E/S, il est clair que l’IA est désormais le produit phare de Google.

L’approche de Google est d’introduire progressivement ces nouvelles fonctionnalités dans ses produits.Mais ce ne sera probablement qu’une question de temps avant que les choses ne commencent à mal tourner. La société n’a résolu aucun des problèmes courants liés à ces modèles d’IA. Ils inventent encore des trucs. Ils sont toujours faciles à manipuler pour enfreindre leurs propres règles. Ils sont toujours vulnérables aux attaques. Rien ne les empêche d’être utilisés comme outils de désinformation, d’escroqueries et de spam.

Étant donné que ces types d’outils d’IA sont relativement nouveaux, ils fonctionnent toujours dans une zone largement exempte de réglementation. Mais cela ne semble pas durable. Les appels à la réglementation se font de plus en plus forts à mesure que l’euphorie post-ChatGPT se dissipe et que les régulateurs commencent à poser des questions difficiles sur la technologie.

Les régulateurs américains tentent de trouver un moyen de régir de puissants outils d’IA.Cette semaine, le PDG d’OpenAI, Sam Altman, témoignera au Sénat américain (après un dîner « éducatif » confortable avec des politiciens la veille). L’audience fait suite à une réunion la semaine dernière entre le vice-président Kamala Harris et les PDG d’Alphabet, Microsoft, OpenAI et Anthropic.

Dans un communiqué, Harris a déclaré que les entreprises avaient une « responsabilité éthique, morale et légale » de garantir la sécurité de leurs produits. Le sénateur Chuck Schumer de New York, le chef de la majorité, a proposé une législation pour réglementer l’IA, qui pourrait inclure une nouvelle agence pour faire respecter les règles.

« Tout le monde veut être vu en train de faire quelque chose. Il y a beaucoup d’anxiété sociale quant à la destination de tout cela », déclare Jennifer King, chargée de la politique de confidentialité et de données à l’Institut Stanford pour l’intelligence artificielle centrée sur l’homme.

Obtenir un soutien bipartisan pour un nouveau projet de loi sur l’IA sera difficile, dit King: «Cela dépendra de la mesure dans laquelle [generative AI] est considérée comme une menace réelle au niveau de la société. Mais la présidente de la Federal Trade Commission, Lina Khan, s’est montrée « fulgurante », ajoute-t-elle. Plus tôt ce mois-ci, Khan a écrit un éditorial appelant à une réglementation de l’IA maintenant pour éviter les erreurs résultant d’un trop laxisme avec le secteur technologique dans le passé. Elle a signalé qu’aux États-Unis, les régulateurs sont plus susceptibles d’utiliser les lois existantes déjà dans leur boîte à outils pour réglementer l’IA, telles que les lois antitrust et les pratiques commerciales.

Pendant ce temps, en Europe, les législateurs se rapprochent d’un accord final sur la loi sur l’IA.La semaine dernière, les membres du Parlement européen ont approuvé un projet de règlement appelant à interdire la technologie de reconnaissance faciale dans les lieux publics. Il interdit également la police prédictive, la reconnaissance des émotions et le grattage aveugle des données biométriques en ligne.

L’UE est sur le point de créer davantage de règles pour limiter également l’IA générative, et le Parlement souhaite que les entreprises créant de grands modèles d’IA soient plus transparentes. Ces mesures comprennent l’étiquetage du contenu généré par l’IA, la publication de résumés des données protégées par le droit d’auteur qui ont été utilisées pour former le modèle et la mise en place de garanties qui empêcheraient les modèles de générer du contenu illégal.

Mais voici le hic : l’UE est encore loin de mettre en œuvre des règles sur l’IA générative, et de nombreux éléments proposés de la loi sur l’IA ne parviendront pas à la version finale. Il reste encore des négociations difficiles entre le parlement, la Commission européenne et les pays membres de l’UE. Il faudra des années avant que la loi sur l’IA entre en vigueur.

Alors que les régulateurs ont du mal à se ressaisir, des voix éminentes de la technologie commencent à pousser la fenêtre d’Overton.S’exprimant lors d’un événement la semaine dernière, l’économiste en chef de Microsoft, Michael Schwarz, a déclaré que nous devrions attendre de voir « un préjudice significatif » de l’IA avant de la réglementer. Il l’a comparé aux permis de conduire, qui ont été introduits après que plusieurs dizaines de personnes ont été tuées dans des accidents. « Il doit y avoir au moins un peu de mal pour que nous puissions voir quel est le vrai problème », a déclaré Schwarz.

Cette déclaration est scandaleuse. Les dommages causés par l’IA sont bien documentés depuis des années. Il y a eu des préjugés et de la discrimination, des fausses nouvelles générées par l’IA et des escroqueries. D’autres systèmes d’IA ont conduit à l’arrestation d’innocents, à des personnes piégées dans la pauvreté et à des dizaines de milliers de personnes accusées à tort de fraude. Ces dommages sont susceptibles de croître de façon exponentielle à mesure que l’IA générative s’intègre plus profondément dans notre société, grâce à des annonces comme celle de Google.

La question que nous devrions nous poser est la suivante : quel mal sommes-nous prêts à voir ? Je dirais qu’on en a assez vu.

Apprentissage plus approfondi

Le boom de l’IA open source repose sur les documents de Big Tech. Combien de temps ça va durer?

De nouveaux grands modèles de langage open source – des alternatives à Bard de Google ou à ChatGPT d’OpenAI que les chercheurs et les développeurs d’applications peuvent étudier, développer et modifier – tombent comme des bonbons d’une piñata. Ce sont des versions plus petites et moins chères des meilleurs modèles d’IA créés par les grandes entreprises qui leur correspondent (presque) en termes de performances – et ils sont partagés gratuitement.

L’avenir de la fabrication et de l’utilisation de l’IA est à la croisée des chemins. D’une part, un meilleur accès à ces modèles a contribué à stimuler l’innovation. Cela peut également aider à détecter leurs défauts. Mais ce boom de l’open source est précaire. La plupart des versions open source reposent toujours sur des modèles géants proposés par de grandes entreprises aux poches profondes. Si OpenAI et Meta décident de fermer boutique, une ville en plein essor pourrait devenir un marigot. Lire la suite de Will Douglas Heaven.

Bits et octets

Amazon travaille sur un robot domestique secret avec des fonctionnalités de type ChatGPT
Des documents divulgués montrent des plans pour une version mise à jour du robot Astro qui peut se souvenir de ce qu’il a vu et compris, permettant aux gens de lui poser des questions et de lui donner des commandes. Mais Amazon doit résoudre de nombreux problèmes avant que ces modèles puissent être déployés en toute sécurité à l’intérieur des maisons des gens à grande échelle. (initié)

Stability AI a publié un modèle de texte en animation
La société qui a créé le modèle open-source de texte en image Stable Diffusion a lancé un autre outil qui permet aux utilisateurs de créer des animations à l’aide d’invites de texte, d’image et de vidéo. Mis à part les problèmes de droits d’auteur, ces outils pourraient devenir des outils puissants pour les créatifs, et le fait qu’ils soient open source les rend accessibles à un plus grand nombre de personnes. C’est aussi un palliatif avant la prochaine étape inévitable, le texte en vidéo open source. (IA de stabilité)

L’IA est entraînée dans les guerres culturelles – voir la grève des écrivains hollywoodiens
L’un des différends entre la Writers Guild of America et les studios hollywoodiens est de savoir si les gens devraient être autorisés à utiliser l’IA pour écrire des scénarios de films et de télévision. Avec une prévisibilité lassante, la brigade américaine de guerre culturelle est entrée dans la mêlée. Les trolls en ligne disent joyeusement aux écrivains en grève que l’IA les remplacera. (Revue new-yorkaise)

Regardez : Une bande-annonce générée par l’IA pourle Seigneur des Anneaux… mais fais-le Wes Anderson
C’était mignon.



Toutes les actualités du site n'expriment pas le point de vue du site, mais nous transmettons cette actualité automatiquement et la traduisons grâce à une technologie programmatique sur le site et non à partir d'un éditeur humain.

Ray Richard

Head of technical department in some websites, I have been in the field of electronic journalism for 12 years and I am interested in travel, trips and discovering the world of technology.
Bouton retour en haut de la page