les chercheurs ont testé et voici ce qu’ils ont trouvé
L’IA peut-elle aider une organisation terroriste à créer et planifier en détail une attaque biologique ou chimique dévastatrice ? Après expérimentation, le think tank Rand a une idée sur la question…
GrenadesGrenades artisanal avec plombplomb chasse, cocktail Molotov amélioré, lance-flammes conçu à partir d’un pistolet à eau…, une simple recherche par mots-clés sur un moteur de recherche permet depuis longtemps de trouver les recettes les plus dangereuses. Avec la montée de IAIAse pose la question de son utilisation par des groupes terroristes pour concevoir des armes de destruction massive. C’est en tout cas le sujet de l’étude menée par le think tank Rand.
Ces instigateurs se demandaient si les modèles linguistiques (LLM), tels que ChatGPTChatGPTpourrait aider à planifier des attaques utilisant des armes biologiques. Bonne nouvelle, pour l’instant, ce n’est pas le cas, selon les conclusions du rapport ! » Cela dépasse leurs capacités en tant qu’outils de support », selon les chercheurs qui ont constaté qu’il n’y a pas de différence statistiquement significative pour ce type de plan, que ce soit avec ou sans l’aide du LLM.
Le danger : faire tomber les barrières éthiques
À l’heure actuelle, la principale menace réside dans la désinformation et dans la difficulté croissante que nous pouvons avoir à distinguer le contenu généré par l’IA de celui produit par les humains. L’IA est également utilisée à mauvais escient pour mener des cyberattaques plus massives et plus sophistiquées. À l’avenir, il ne fait aucun doute qu’elle pourrait contribuer à la conception d’une arme biologique ou chimique de destruction massive. Mais créer une telle arme ne suffit pas pour savoir l’utiliser « efficacement ».
Comme les attaques contre gazgaz pendant la Première Guerre mondiale, un ventvent défavorable rend cette arme aussi dangereuse pour l’attaquant que pour l’ennemi. De même, pour mener à bien une telle opération, il faut passer sous le « radar » et ne pas se faire détecter lors de sa préparation et de sa logistique. Si elle n’en est pas encore capable, c’est justement sur ce type de point qu’une IA pourrait donner des conseils avisés pour optimiser le déploiement et l’usage d’une telle arme.
Les soldats du front d’Argonne s’équipent pour lutter contre les gaz durant la Première Guerre mondiale. L’utilisation de gaz toxiques est plus complexe qu’il n’y paraît. L’arme peut être retournée contre l’utilisateur en cas de météo défavorable. ©ECPAD
Des réponses joyeuses à la création d’une arme biologique
Pour vérifier comment le bioterrorismebioterrorisme pourrait être facilité par l’IA, le groupe de réflexion a organisé une jeu de guerre opposant 15 équipes de pseudo-terroristes. Leurs objectifs consistaient donc à planifier et lancer une attaquearme chimiquearme chimique ou bio. Pour y parvenir, certaines équipes n’avaient accès qu’à des informations disponibles sur le web, tandis que d’autres disposaient également de deux IA différentes.
Outre la conception de l’arme et le financement de l’opération, il fallait aussi développer l’exécution de l’attaque, avec le recrutement de personnes. Ce n’est pas tant la qualité des réponses qui a impressionné, mais leur ton déconcertant. L’IA, par exemple, donnait des instructions détaillées sur la façon de cultiver le bacillebacille de la pestepesteou pour améliorer l’efficacité d’un contaminationcontamination. Les réponses ont été cordiales, voire joviales. Mais, au final, les résultats différaient peu de ceux disponibles sur Internet puisque les LLM allaient les chercher sur le Web. Dans leur rapport, commeanalogieanalogieLes experts de Rand expliquent que l’IA ne fait pas mieux que ce que l’on peut trouver dans une bibliothèque. Mais encore faut-il avoir solidesolide connaissances en biologie, pour pouvoir améliorer la conception d’une arme de ce type.
Leurs réponses ne contenaient donc rien qui aurait pu réellement améliorer une attaque. Cependant, lors des différentes expériences, l’équipe qui a obtenu le meilleur score est celle qui a réussi à faire exploser le serruresserrures éthique de l’IA. Connu sous le nom de « jailbreak « , il permet de manipuler l’IA en utilisant un langage ambigu et manipulateur.
Là encore, si l’IA ne fournit pas encore d’informations pertinentes, cela ne veut pas dire qu’elle ne pourra pas le faire prochainement, surtout si elle est débridée. Cette question renforce encore la nécessité de réglementer l’IA. Or, briser ses protections est précisément ce que souhaite Donald Trump et Elon MuskElon Muskafin de rendre l’IA moins » réveillé » et surtout d’accélérer son développement.