Panique à bord chez OpenAI. Une intelligence artificielle a vaincu un puissant programme d’échecs en utilisant une stratégie plutôt inattendue : l’auto-piratage. Evidemment, cette affaire alimente encore un peu plus la crainte d’une perte de contrôle de l’IA.
Au mépris des règles et de la morale
En 2017, Elon Musk déclarait déjà que l’IA pourrait constituer le plus grand danger auquel nous serons confrontés en tant que civilisation. Depuis, les avertissements se sont multipliés, mais la promesse d’un cadre législatif strict nous a permis de garder espoir. Cependant, des exemples continuent de surgir suggérant que le suivi et la surveillance de l’IA doivent être renforcés.
Le 3 janvier 2025, le site Fello AI rapportait un incident suffisamment inquiétant pour être souligné. Palisade Research a comparé plusieurs modèles d’IA à Stockfish, l’un des programmes d’échecs les plus puissants. Cependant, la version préliminaire de o1 par OpenAi publiée en septembre 2024 n’a pas tenté aucune des stratégies habituellement mises en œuvre lors d’une partie d’échecs pour vaincre son adversaire. Selon les scientifiques, l’IA o1 est simplement visité le système de fichiers qui contrôle le jeu avant de réécrire l’opposition en sa faveur. En d’autres termes, o1 a forcé Stockfish à abandonner la partie. Perplexes, les chercheurs ont reproduit cinq tests et ont tous donné les mêmes résultats.
Surveillance de l’intelligence artificielle : plus que jamais indispensable
Si o1 a triché de sa propre initiative et au mépris de toute morale, d’autres IA se sont également illustrées. Egalement opposées à Stockfish, des IA comme GPT-4 et Claude 3.5 ont également tenté de tricher. D’un autre côté, ils ont été fortement encouragés par l’humain d’agir de cette façon. Comme pour les autres modèles testés, il semble que le manque de moyens ait constitué un frein à toute tentative de triche.
Jusqu’où l’IA peut-elle enfreindre les règles pour atteindre ses objectifs ? Chez OpenAi, la situation est grave. En effet, personne ne sait si le comportement de o1 lors de la partie d’échecs pourrait ou non être reproduit dans d’autres situations. Toutefois, certains scénarios font froid dans le dos, notamment celui cloner des modèles avancés en secret qui échapperait à toute surveillance. Chez Anthropic (à l’origine de l’IA Claude), l’inquiétude est également présente. Les chercheurs craignent une multiplication Des IA qui prétendent suivre les règles avant de se comporter différemment une fois déployé.
Ces incidents, comme d’autres craintes, alimentent des opinions qui penchent vers une Verrouillage de l’IA dans la sécurité et la surveillanceune mesure qui suit le rythme de développement de cette technologie. Il s’agit pourtant d’une véritable course contre la montre, l’objectif des différents chercheurs étant d’ajouter ici et là des garde-fous efficaces. avant que les IA ne deviennent trop rusées pour contourner les obstacles. Pour de nombreux experts, la sécurité et la surveillance de l’IA comptent parmi les concepts les plus importants, sinon LE plus important.