La nouvelle IA « o1 » d’OpenAI, un premier pas vers la superintelligence
Il s’agit d’une étape nécessaire pour l’avenir de l’intelligence artificielle. Jeudi soir, OpenAI a présenté sa nouvelle famille de modèles d’IA, baptisée « o1 » car elle « remettre les compteurs à zéro » a déclaré l’entreprise. Capable de raisonner mieux que les IA actuelles et d’organiser des « chaînes de pensées » avant de répondre, o1 est un premier pas vers l’autonomie de l’IA promise par l’industrie, même si elle en reste évidemment très loin. Dans l’immédiat, OpenAI promet d’ouvrir » un nouveau niveau de capacité pour l’IA « , ce qui devrait se traduire par de nouveaux cas d’utilisation.
Il s’agit donc bel et bien d’une branche technologique totalement nouvelle, avec ses propres avantages et inconvénients par rapport à GPT-4, l’IA qui a fait le succès de l’entreprise et qui sert de moteur à ChatGPT. Plus efficace pour répondre à des problèmes mathématiques complexes, résoudre des énigmes ou organiser des e-mails par ordre d’importance, elle n’a pas accès au même volume de connaissances GPT-4 et est moins efficace sur certaines tâches. Surtout, o1 est beaucoup plus lent à répondre et coûte plus de trois fois plus cher à utiliser que GPT-4o, le modèle le plus puissant d’OpenAI actuellement.
Le fameux « test de la fraise » enfin répondu correctement
Pour les curieux, o1 est déjà accessible aux 11 millions d’abonnés aux offres payantes de ChatGPT. Mais il s’agit d’une version restreinte : certaines fonctionnalités, comme l’analyse d’images, attendent encore des tests supplémentaires, et le nombre de requêtes reste limité à 30 messages par semaine pour la version normale (o1-preview) et 50 pour la version moins puissante (o1-mini). De plus, OpenAI insiste : cet o1 présenté le jeudi 12 septembre n’est qu’une version limitée » aperçu « capacités du modèle, destinées à recevoir des mises à jour régulières.
Pour développer cette nouvelle classe d’IA, les chercheurs ont développé une nouvelle méthode de formation. Nous avons entraîné ces modèles à passer plus de temps à réfléchir avant de réagir, comme le ferait une personne. Au cours de leur formation, ils apprennent à affiner leurs processus de réflexion, à tester différentes stratégies et à reconnaître leurs erreurs. « , explique OpenAI dans son communiqué. Bien que l’entreprise reste évasive sur les détails de sa démarche, son directeur de recherche, Jerry Tworek, précise dans Le Verge que ses équipes ont utilisé un nouvel algorithme d’optimisation, et qu’elles ont alimenté l’IA avec un nouveau jeu de données sur mesure. Au final, le modèle devait être capable de décomposer un problème en différentes étapes, et non pas simplement considérer la requête comme un seul bloc comme le font les modèles actuels
Et ça marche ! Comme testé La Tribuneo1 répond enfin correctement aux questions » Combien de « n » y a-t-il dans « étonnement » ? « , et son équivalent anglais » Combien de « r » y a-t-il dans « fraise » ? », deux exemples célèbres des limites écrasantes des grands modèles de langage, incapables de rendre compte correctement quand n’importe quel humain pourrait le faire.
Raisonnement amélioré, encore loin d’être humain
Plus généralement, il suffit de tester des puzzles un peu complexes pour voir l’écart de raisonnement entre o1 et GPT-4o. En réponse au puzzle « Pour moi, l’accouchement précède la grossesse, l’enfance précède la naissance, l’adolescence précède l’enfant, la mort précède la vie. Qui suis-je ? « , GPT-4 répond à la question » tu es le temps « , avant d’expliquer que ce serait un » réflexion philosophique « . De son côté, o1 – après exactement neuf secondes de réflexion – répond correctement » tu es un dictionnaire » détaille ensuite les étapes de son raisonnement.
OpenAI a en effet choisi de donner l’illusion d’un raisonnement humain dans l’interface de l’outil. Pendant qu’il effectue ses calculs, le modèle affichera des messages tels que » Je pense « , » Je me demande si » ou même « Je manque de temps, laissez-moi trouver une réponse rapide « , avant d’expliquer étape par étape sa démarche. Malgré ces apparences – avantageuses d’un point de vue marketing – le directeur de recherche d’OpenAI rappelle, en parallèle, que le raisonnement de la machine n’est pas équivalent à celui d’un humain.
De plus, même si o1 est moins hâtif dans ses réponses que ses prédécesseurs, il ne résout pas encore le problème des hallucinations de l’IA, ces situations où elle présente des mensonges comme des vérités. Nous avons remarqué que ce modèle hallucine moins, mais nous ne pouvons pas dire que nous avons résolu les hallucinations « , concède dans Le Verge Jerry Tworek. Entraînés à reproduire les tendances trouvées dans leurs données d’entraînement, les grands modèles de langage ont jusqu’à présent eu un gros problème d’hallucinations, qui fermaient complètement leur utilisation dans certains cas d’utilisation potentiels.
Un premier pas vers les agents, le Saint Graal de l’industrie
Les domaines d’application les plus évidents des capacités d’o1 sont les disciplines scientifiques, comme les mathématiques, la biologie et la physique, ainsi que l’informatique. Toujours à la recherche de points de référence pour mettre en valeur les prouesses de son IA, OpenAI brandit les résultats d’o1 lors d’un concours de mathématiques pour les lycéens américains. Le nouveau modèle a répondu correctement à 83 % des problèmes, contre 13 % pour GPT-4o, ce qui le place au-dessus de 89 % des participants.
Mais comme indiqué TechCrunchCe résultat a déjà été dépassé par certains modèles de Google dédiés aux mathématiques, ce qui relativise l’exploit. À court terme, l’entreprise compte commercialiser son modèle pour des cas d’usage en ingénierie, en mathématiques et en biologie.
En revanche, c’est sur le long terme que o1 est important. OpenAI, comme ses concurrents, ambitionne de créer des IA autonomes, appelées « agents » dans le jargon, capables de prendre des décisions et de réaliser des séries d’actions. Dans cet idéal, un agent pourrait par exemple coder un site web de A à Z en fonction d’un cahier des charges, ou encore gérer toute la première étape d’un processus de recrutement.
Sans cette capacité à raisonner de manière complexe, les IA se limitent au rôle d’assistant ou de copilote qu’elles ont actuellement. Pour OpenAI, o1 démontre qu’un chemin existe vers ces agents, ce qui fait de la capacité à raisonner une « innovation disruptive critique « , a déclaré Bob McGrew, le directeur scientifique de la startup. En même temps, ce premier modèle expose aussi les difficultés qu’il faut surmonter pour atteindre cet idéal. Si l’IA prend beaucoup plus de temps à traiter une tâche qu’un humain, et à un coût élevé, elle n’aura pas de cas d’usage.
Derrière cette innovation, OpenAI joue gros. Alors qu’elle devrait annoncer dans les prochains jours une levée de fonds de plus de 7 milliards de dollars qui la valoriserait à 150 milliards de dollars, la start-up reste une machine à brûler du cash – environ 5 milliards par an selon l’estimation de Les informations-et doit prouver qu’il existe un chemin à long terme vers la rentabilité.
Dans son rétroviseur, Google travaille d’arrache-pied pour rattraper son retard et compte sur des liquidités quasiment infinies, alimentées par les dizaines de milliards de dollars de profits annuels du groupe. Pour lutter durablement contre ce mastodonte, la machine de guerre OpenAI, forte de 1 700 salariés, a besoin de conserver son avance technologique. o1 pourrait lui offrir un répit… en attendant que ses concurrents réagissent.