Nouvelles locales

“À Gaza, l’IA Lavender a désigné 37 000 cibles humaines”

Courrier International : le 3 avril, une enquête conjointe de « +972 Magazine » et de « Local Call » révèle que, dans sa guerre à Gaza, l’armée israélienne utilise un système d’intelligence artificielle baptisé « Lavender » – « lavande » en français. A quoi cela sert ?

Meron Rapoport : L’existence de Lavande est antérieure à cette guerre, mais jusque-là, elle était un outil simple et de second ordre. Pour cette guerre, il a été perfectionné pour traquer et tuer des dizaines de milliers de membres du Hamas, de tous grades, parfois même sans liens directs avec la branche militaire de l’organisation – certains faisaient partie du gouvernement civil de Gaza.

Au départ, (les Israéliens) ont commencé par une sorte de test : ils ont collecté des informations sur quelques centaines de combattants confirmés du Hamas, et à partir de leurs données, ils ont demandé à la machine d’identifier des Palestiniens avec des données similaires, qui sont ensuite devenus des cibles potentielles d’assassinat.

Ce sont 37 000 personnes qui ont été désignées comme cibles à Gaza, et selon les sources de renseignement rencontrées par Yuval Avraham (qui a signé l’enquête), la partie vérification humaine, qui doit s’assurer que la personne ciblée est la bonne, a été réduite à un minimum, pas plus de vingt secondes dans certains cas, de sorte que les militaires chargés de cette vérification avaient le sentiment de devoir simplement entériner le choix de l’engin.

Ces cibles incluent des militants de second rang, et pas seulement des dirigeants. Par ailleurs, l’armée sait que le taux de fiabilité du système est au mieux de 90%, et donc que 10% des

Gérard Truchon

An experienced journalist in internal and global political affairs, she tackles political issues from all sides
Bouton retour en haut de la page