Antropic, maison mère de Claude AI, alerte les gouvernements sur les risques catastrophiques de l’IA
Anthropic met en garde les gouvernements contre les risques » cybernétique et CBRN (chimique, biologique, radiologique et nucléaire) » que représentent les modèles d’IA de pointe. Selon l’entreprise, ces systèmes ont désormais acquis des capacités leur permettant de mener avec une efficacité croissante des activités liées à la cybercriminalité et à la prolifération des armes de destruction massive.
Le créateur de Claude AI décide d’être proactif et prône une régulation » chirurgical » de l’IA, qui s’inspirerait de la sienne » politique de mise à l’échelle responsable » (Politique de mise à l’échelle responsable, RSP). Celui-ci vise à identifier, évaluer et atténuer les risques catastrophiques de manière proportionnée, en fonction des seuils de capacité atteints par les modèles.
Selon Anthropic, une telle régulation devrait reposer sur trois piliers essentiels : la transparence, l’encouragement des meilleures pratiques de sûreté et de sécurité, ainsi que la simplicité et la concentration des mesures.