Nouvelles locales

des dizaines de milliers de cibles identifiées par l’IA pour l’armée israélienne

Selon une enquête publiée mercredi 3 avril par des médias israéliens, un logiciel d’intelligence artificielle (IA) aurait été utilisé par l’armée israélienne pour désigner « jusqu’à 37 000 » personnes comme combattants ou militants du Hamas et du Jihad islamique, parmi les 2,3 millions d’habitants de la bande de Gaza. La majorité d’entre eux et leurs familles ont ensuite été visés par des bombardements aériens durant les premières semaines de la guerre, débutée le 7 octobre 2023 après les attaques terroristes menées sur le territoire israélien.

Lire aussi | En direct, guerre Israël-Hamas : suivez notre journée spéciale près de six mois après l’attentat du 7 octobre

« L’armée israélienne a développé un programme basé sur l’intelligence artificielle, connu sous le nom de Lavender (…)générer des cibles d’assassinat »dit le magazine +972 et le site d’informations Appel local. Ce logiciel « a joué un rôle central dans le bombardement sans précédent des Palestiniens »estime l’auteur de l’enquête, le journaliste et cinéaste israélien Yuval Abraham, à l’origine des premières révélations en novembre 2023 sur l’utilisation de l’IA par l’armée israélienne.

Selon cette enquête, Lavender a été conçu pour identifier tout combattant ou activiste du Hamas ou du Jihad islamique, quelle que soit son importance dans la chaîne militaire, en traitant avec « quantités massives » de données : « Informations visuelles, informations cellulaires, connexions aux réseaux sociaux, informations sur le champ de bataille, contacts téléphoniques, photos. » Jusqu’à présent, cette identification se faisait humainement mais était limitée, faute de moyens, aux commandants de haut rang.

Lire aussi : Article réservé à nos abonnés Stratégie militaire israélienne : l’intelligence artificielle au service des bombardements massifs

Plusieurs témoins interrogés affirment que Lavande n’est fiable qu’à 90 %. En d’autres termes, jusqu’à 10 % des personnes identifiées par le logiciel – et donc susceptibles d’être bombardées – auraient pu l’être par erreur. « En temps de guerre, nous n’avons pas le temps d’incriminer chaque cible. Nous sommes donc prêts à prendre la marge d’erreur dans l’usage de l’IA, au risque de dommages collatéraux et de la mort de civils. (…) et de l’accepter »affirme une source au sein des services de renseignement israéliens, citée par le journaliste.

Plusieurs victimes collatérales admises

Plus inquiétant encore, l’État juif utilise un autre logiciel, appelé – cyniquement – ​​Où est papa ? (« où est papa ? », en anglais), pour localiser les cibles identifiées par Lavender. Grâce à ce programme, l’armée pourrait déterminer quand ces combattants palestiniens présumés se trouvent chez eux et ainsi les bombarder pendant qu’ils dorment, afin de maximiser les chances de les tuer. « Vous entrez des centaines (des cibles) dans le système et vous attendez de voir qui vous pouvez tuer »explique une source citée dans l’enquête, en parlant de « chasse au large ».

Il vous reste 34,38% de cet article à lire. Le reste est réservé aux abonnés.

Gérard Truchon

An experienced journalist in internal and global political affairs, she tackles political issues from all sides
Bouton retour en haut de la page