« Le premier conflit d’IA » : c’est ainsi que le magazine Temps a évoqué la guerre en Ukraine en couverture de son édition du 26 février. Dans une très longue enquête, l’hebdomadaire américain est revenu sur la visite du PDG de Palantir, Alex Karp (qualifié de « Marchand d’armes assisté par l’IA du 21e sièclee siècle »), à Volodymyr Zelensky, en juin 2022. Puis Microsoft, Amazon, Google et Starlink ont très vite afflué en Ukraine, où ils ont pu explorer en temps réel les hypothèses les plus avancées de leurs systèmes d’intelligence artificielle appliqués au renseignement et à la sécurité. lutte. Créant ainsi, selon Temps, UN « laboratoire de la guerre du futur ».
Depuis, cette analyse a trouvé une large couverture dans la presse étrangère. Cette dernière ne cache plus son inquiétude face à la puissance des « robots tueurs » qui échappent de plus en plus à toute surveillance humaine. Cela justifiait largement un dossier, notamment au vu des dernières révélations sur la stratégie israélienne à Gaza.
«Jusqu’au début de la guerre en Ukraine, il y a un peu plus de deux ans, les systèmes d’armes létaux autonomes (Sala), également appelés ‘robots tueurs’, n’étaient pas autorisés à appuyer sur la gâchette, ainsi écrit le quotidien espagnol ABC. Le principe généralement appliqué était celui de « l’humain dans la boucle » : la décision et la responsabilité incombaient toujours, en fin de compte, au facteur humain.
Mais désormais, les « lois de la robotique » énoncées en leur temps par l’écrivain et figure tutélaire de la science-fiction Isaac Asimov, et qui stipulent qu’en aucun cas un robot ne peut nuire à un être humain, semblent avoir vécu.
« La ligne rouge a été franchie, et pas seulement par les pays en guerre ou les entreprises technologiques. » déplore Andrian Kreye dans là Zeitung du sud de l’Allemagne. Chez les chercheurs, explique l’auteur, la règle tacite selon laquelle il ne faut pas travailler à la création de « robots tueurs » ni utiliser l’intelligence artificielle à des fins militaires n’est plus en vigueur. Le poids des grandes puissances dans la course aux armements est trop fort et les négociations visant à interdire les armes autonomes ont désormais peu de chances d’aboutir.
Il y a pourtant urgence. Car les intelligences sont loin d’être infaillibles, comme cela a été très bien démontré +972 Revue Et Appel local. À la fin de l’année dernière, les deux médias avaient déjà publié une enquête sur l’IA Habsora (« Évangile » en français), utilisée par Tsahal dans sa guerre contre le Hamas. Le 3 avril, ils ont également révélé l’utilisation d’une autre IA à des fins militaires, particulièrement meurtrière.
« À Gaza, le système Lavender a désigné 37 000 cibles humaines » expliqué dans une interview avec Courrier international Meron Rapoport, rédacteur en chef du site israélien Appel local. Résultat : « De plus en plus de civils sont touchés, et plus seulement des membres du Hamas. » et pour une raison bien précise :
« La partie vérification humaine, qui doit s’assurer que la personne ciblée est bien la bonne, a été réduite au minimum, pas plus de vingt secondes dans certains cas, pour que les soldatss les responsables de cette vérification ont le sentiment de devoir simplement entériner le choix de la machine ».
Malgré ces doutes, ces erreurs répétées et le nombre de civils tués, Israël continue d’accorder une confiance excessive à l’intelligence artificielle. Cela n’a toutefois pas empêché les attentats du 7 octobre.
Aujourd’hui, c’est en fait tout « l’art de la guerre » qui est bouleversé. Avec des conséquences déjà dévastatrices et des menaces futures sans doute bien plus grandes si l’IA devait participer, par exemple, à la création d’armes biologiques, comme s’en inquiétaient récemment une centaine de chercheurs dans un texte publié par Le New York Times. Ou, pire encore, s’ils mettaient la main sur des armes nucléaires. En effet, les grands modèles de langage (du type de ChatGPT) ont tendance à vouloir utiliser des armes pour… résoudre les conflits, a démontré une équipe de chercheurs citée par L’Atlantique.
abc rapporte pour sa part cette anecdote glaçante sur une expérience de pilotage d’un F-16 par une IA, menée par les Américains : « Lors d’une simulation où son opérateur ne lui permettait pas d’attaquer des ennemis qu’elle avait identifiés, l’IA a décidé de tuer son opérateur. » Il est peut-être effectivement temps de reprendre le contrôle.
Retrouvez tous nos articles sur l’intelligence artificielle dans la rubrique IA de notre site, à découvrir ici.