Grand jour pour Anthropic, qui dévoile aujourd’hui Claude 3.5 Haiku, une réponse directe à ChatGPT-4o Mini ou Gemini 1.5 Flash, offrant selon un benchmark des performances supérieures à ces deux modèles, même si pour l’instant, il ne supporte pas l’image et s’impose avant tout comme modèle textuel. De plus, Anthropic a lancé une mise à jour majeure pour Claude 3.5 Sonnet, permettant une référence impressionnante qui classe Claude comme le meilleur modèle disponible sur le marché aujourd’hui.
Le monde de demain, aujourd’hui
En plus de ces ajouts, Claude a dévoilé une nouvelle API disponible en version bêta publique appelée « Computer Use ». Grâce à cette dernière, l’utilisateur de Claude AI peut permettre à l’intelligence artificielle de prendre directement le contrôle de son ordinateur, et ainsi d’effectuer diverses actions à sa place. Claude peut donc regarder votre écran, déplacer le curseur, cliquer et écrire du texte. L’idée est de sortir aujourd’hui cette API en version bêta afin de récolter un maximum d’informations et ainsi améliorer le service au fil du temps.
Pour présenter cette nouvelle fonction, Anthropic écrit ceci : «avec Computer Use, nous essayons quelque chose de fondamentalement nouveau. Au lieu de créer des outils spécifiques pour aider Claude à accomplir des tâches individuelles, nous lui enseignons des compétences informatiques générales, lui permettant d’utiliser une large gamme d’outils et de logiciels standards conçus à l’origine pour les personnes.« . A noter que cette API peut également être utilisée par les professionnels : « les développeurs peuvent intégrer cette API pour permettre à Claude de traduire des instructions (par exemple, « utiliser les données de mon ordinateur et disponibles en ligne pour remplir ce formulaire ») en commandes informatiques (par exemple, « vérifier une feuille de calcul ») ; « déplace le curseur pour ouvrir un navigateur Web » ; « accède aux pages Web pertinentes » ; « remplit un formulaire avec les données de ces pages »).« .
Et la sécurité ?
Évidemment, une telle fonctionnalité soulève des questions sur la confidentialité et la sécurité d’une telle fonction, qui offrira à terme une liberté inédite aux modèles d’IA, puisqu’ils pourront contrôler directement l’ordinateur d’un utilisateur. La plus grande vulnérabilité d’une telle fonction réside donc dans le « prompt injection », une cyberattaque dont le but est de fournir des requêtes malveillantes à une IA. Avec une telle méthode, il serait possible de contrôler l’ordinateur d’un utilisateur à distance, et ainsi récupérer tout un tas d’informations compromettantes. Anthropic en est conscient et affirme travailler sur différentes méthodes pour contrer les attaques potentielles de ce type. Mais pour l’instant, la fonction Computer Use est trop rudimentaire dans ses fonctions pour être considérée comme un risque réel.