« L’évolution de l’intelligence artificielle dans la guerre risque de marquer une nouvelle ère sombre pour notre espèce »
Le Forum de Paris sur la Paix (11 et 12 novembre), en marge duquel a été organisée dimanche 10 novembre une rencontre entre le président Macron et un groupe consultatif sur l’intelligence artificielle (IA), se tient dans un contexte de guerres incessantes en Europe et le Moyen-Orient.
Les chaînes Telegram russes et ukrainiennes regorgent de vidéos de drones, modèles militaires et modèles grand public DIY, traquant les combattants tentant d’échapper à leur drone aigu avant d’être incinérés sous les yeux de milliers de personnes. spectateurs. Plusieurs reportages ont également révélé qu’Israël utilisait un système d’IA pour sélectionner des cibles à Gaza.
Nous nous trouvons à un point d’inflexion majeur dans la guerre, sur le point de passer d’une guerre menée par des humains assistés par l’IA à une guerre menée par des humains assistés par l’IA. Un tel changement, où l’IA prendrait la décision finale de déployer des frappes meurtrières sans intervention humaine, marquerait une nouvelle ère sombre pour notre espèce.
Retirer les humains du processus décisionnel pourrait conduire à des niveaux d’efficacité sans précédent dans les crimes de guerre, éliminant ainsi la possibilité pour des officiers subalternes de remettre en question les ordres visant à mettre fin aux massacres de civils non armés ou de combattants qui se sont rendus conformément au droit international.
Des pertes massives
Les systèmes d’IA peuvent évoluer à une vitesse incroyable et une erreur de programmation pourrait entraîner des pertes massives, avant même que les superviseurs humains ne s’en aperçoivent, ou pousser des conflits de bas niveau vers une escalade qui n’était pas prévue par les décideurs politiques.
Ces risques pèsent non seulement sur le terrain, mais aussi sur les cyberarmes. LE malware (« logiciel malveillant ») les systèmes autonomes et automatisés sont déployés par les États depuis relativement longtemps. Le développement du virus Stuxnet par les États-Unis, qui a réussi à paralyser le programme nucléaire iranien, a probablement commencé en 2005.
Mais ces outils nécessitaient souvent une connaissance détaillée des systèmes ciblés grâce à l’intelligence humaine – comme avec Stuxnet – ou encore devaient être largement diffusés pour être efficaces – comme NotPetya et WannaCry, distribués par la Russie et la Corée du Nord.
En matière de cyberattaques, l’IA a jusqu’à présent principalement profité aux défenseurs, comme des entreprises comme la mienne. (SentinelleOne) utilisez-le pour détecter et arrêter les attaques en temps réel.
Il vous reste 60,65% de cet article à lire. Le reste est réservé aux abonnés.