Ll’intelligence artificielle (IA) suscite un émerveillement comparable à celui de la révolution industrielle du XIXee siècle. Mais les appels à la prudence se multiplient, comme en témoignent les initiatives du projet de loi visant à réglementer le développement et l’utilisation de l’IA en Californie ou la récente initiative du gouvernement français visant à mesurer son impact environnemental. Ces préoccupations illustrent des questions fondamentales sur notre rapport à la technologie, notre fierté et notre volonté de croire au progrès illimité.
La capacité des humains à transformer leur environnement grâce à la technologie et au langage (via les histoires qui structurent notre vision du monde) définit leur condition. Cette liberté se manifeste dans la volonté constante de repousser les limites du possible, comme l’illustrent les recherches en intelligence artificielle et l’émergence d’applications comme ChatGPT (et sa récente amélioration incrémentale o1), Gemini ou Llama.
Aussi réjouissantes que angoissantes, ces évolutions sont parfois plus fantasmées que remises en question. Car si les techniques de base du deep learning – branche de l’IA où les machines apprennent à partir de données – sont connues depuis les années 1950, l’apparition récente d’applications concrètes comme les grands modèles de langage (LLM, pour grand modèle de langages), entraîné sur des quantités massives de textes depuis 2018, a surpris le grand public. Mais pas les chercheurs en IA, qui connaissaient déjà son potentiel.
La surprise vient de l’engouement du public pour ces systèmes. Après l’échec du chatbot Tay de Microsoft il y a quelques années et les critiques envers Galactica, l’outil de rédaction scientifique de Meta, ChatGPT a surpris en connaissant un succès fulgurant dès son lancement. Cet engouement a sans doute été motivé par sa simplicité d’utilisation, sa capacité à apporter des réponses cohérentes et un marketing efficace centré sur le potentiel d’usage.
Pour Yann Le Cun, responsable de l’intelligence artificielle chez Meta et père du deep learning (apprentissage profond) – un sous-domaine du deep learning qui utilise des réseaux de neurones artificiels pour analyser et interpréter des données complexes – interviewée dans le podcast « Do It Yourself », cette maîtrise du langage par les LLM peut paraître impressionnante, mais elle repose en réalité sur des modèles statistiques simples et ne reflètent la véritable intelligence.
Il vous reste 55,12% de cet article à lire. Le reste est réservé aux abonnés.
L'UEFA a annoncé avoir désigné Slavko Vincic pour arbitrer la confrontation entre Arsenal et le PSG, mardi (21 heures) à…
Depuis 2017, la plateforme Global Fashion Collective fait venir des créateurs émergents aux Fashion Weeks internationales. Pour la saison printemps-été…
Le combattant brésilien Renato Moicano. Getty Images via AFP / © 2024 Getty Images Une sortie de ring très surprenante.…
"C'était un gars vraiment sympa" : son père meurt sur la route, sa famille blesséeOuest de la FranceUn père de…
Les tendances changent en 2025. Et pour votre salle de bain, nous vous conseillons ce modèle d'étagère de douche ultra…
Stade Toulousain – Bordeaux-Bègles : qu'est-ce que le « surf », l'arme secrète qui permet aux Girondins de marquer autant…