L’intelligence artificielle d’Anthropic prend le contrôle des ordinateurs
Seriez-vous prêt à confier le contrôle de votre ordinateur à une IA ? C’est la proposition d’Anthropic, qui a annoncé la sortie de Claude 3.5 Sonnet, un modèle d’intelligence artificielle qui repousse les limites de l’assistant virtuel classique. Claude ne se contente plus de répondre à des questions ou d’effectuer des tâches dans une boîte de discussion : il peut interagir directement avec un logiciel installé sur un ordinateur, simulant des clics de souris, des frappes au clavier et d’autres actions normalement effectuées par un utilisateur humain.
Une IA aux commandes de votre PC
» Nous entrons dans une nouvelle ère où l’IA peut utiliser tous les outils qu’un humain utilise pour accomplir ses tâches », explique Jared Kaplan, directeur scientifique d’Anthropic. Cette innovation est une étape vers la création d’« agents intelligents », capables d’agir de manière autonome dans des logiciels et pour de nombreux usages.
Claude peut ainsi être utilisé pour toutes sortes de tâches, allant de la programmation à l’organisation de voyages. Par exemple, lors d’une démonstration, l’IA a été chargée de planifier une visite du Golden Gate Bridge au lever du soleil. Après avoir ouvert un navigateur, Claude a recherché les informations nécessaires et a ajouté l’événement à un calendrier. Cependant, l’IA a omis des détails importants tels que les directions pour s’y rendre. Oups !
Si les capacités du Claude 3.5 Sonnet sont impressionnantes, elles ne sont pas sans risques. La sécurité des utilisateurs est une préoccupation majeure, car permettre à une IA d’accéder à tous les logiciels et fichiers d’un ordinateur pourrait ouvrir la porte à des abus ou à des erreurs imprévues. Anthropic reconnaît ce danger et a déclaré travailler sur des mesures de protection. » Nous pensons qu’il est préférable de donner aux ordinateurs l’accès à des modèles d’IA plus limités et relativement plus sûrs.« , a affirmé l’entreprise, qui souligne l’importance de surveiller dès maintenant les éventuels problèmes.
Les attaques par « prompt injection » font partie des menaces identifiées. Ce type de cyberattaque consiste à insérer des instructions malveillantes dans un flux de commandes destiné à l’IA, la poussant à effectuer des actions non prévues par l’utilisateur. Même si Claude n’est pas connecté à internet lors de ses phases d’entraînement, sa capacité à interpréter les captures d’écran en temps réel le rend vulnérable à ce type d’attaque.
Outre les risques involontaires, l’utilisation malveillante de Claude est également une préoccupation. À l’approche des prochaines élections américaines, Anthropic a mis en place des systèmes pour empêcher l’IA de se livrer à des activités nuisibles, comme la création de contenu pour les réseaux sociaux ou l’interaction avec des sites gouvernementaux.
🟣 Pour ne manquer aucune actualité du Journal du Geek, abonnez-vous sur Google News. Et si vous nous aimez, nous avons une newsletter tous les matins.